في ظل الطفرة المتسارعة لتقنيات الذكاء الاصطناعي التوليدي، بدأت العديد من شركات التكنولوجيا في تعديل سياسات الخصوصية وشروط الاستخدام الخاصة بها بصمت، بما يسمح لها باستخدام بيانات المستخدمين في تدريب نماذجها، أو حتى ترخيص هذه البيانات لشركات أخرى لأغراض مشابهة، هذا التوجه أثار موجة من التساؤلات والقلق المتزايد حول الخصوصية وملكية البيانات.
مؤخرًا، أثار تطبيق WeTransfer جدلًا واسعًا بعدما حدث شروط الاستخدام ليشمل إمكانية استخدام الملفات المرفوعة على المنصة في تحسين نماذج التعلم الآلي، ورغم أن الشركة تراجعت سريعًا عن تلك الإضافة، وأزالت أي إشارة إلى الذكاء الاصطناعي من الوثيقة، إلا أن الحادثة كانت كاشفة للقلق المتزايد لدى المستخدمين بشأن طريقة تعامل الشركات مع بياناتهم، في زمن باتت فيه كل معلومة تُعتبر وقودًا محتملاً للذكاء الاصطناعي.
وباتت شركات التكنولوجيا تقوم بشكل واسع بجمع البيانات المتاحة علنًا على الإنترنت من منشورات وسائل التواصل الاجتماعي إلى مراجعات المطاعم والمدونات والصور الشخصية، لتغذية خوارزميات الذكاء الاصطناعي، وبينما رفعت بعض المجموعات الحقوقية والفنانين والمبدعين دعاوى قضائية لمنع الاستخدام غير المصرح به لمحتواهم، بدأت تتوفر للمستخدمين الأفراد أيضًا بعض الوسائل لتقييد استخدام بياناتهم.
وبفضل الضغوط المتزايدة من المستخدمين، بدأت شركات مثل Google وOpenAI وLinkedIn وغيرهم بتوفير خيار “الانسحاب” من استخدام بيانات الأفراد في تدريب النماذج، وإن كانت هذه الخيارات لا تضمن دائمًا إزالة البيانات التي سبق استخدامها.
ولمن يريد التحقق مما إذا كانت بياناته أو أعماله الإبداعية قد استُخدمت في تدريب نماذج الذكاء الاصطناعي، يمكنه زيارة موقع Have I Been Trained؟، وهو منصة طورها فريق تقني لمساعدة المبدعين على اكتشاف ما إذا كانت أعمالهم قد أُدرجت ضمن مجموعات تدريب النماذج.
نوصي بقراءة: منصة X تحجب حسابات رويترز في الهند.. اعرف التفاصيل
وفي حال اكتشفت أن بياناتك قد استخدمت فعلًا، فبإمكانك اتباع إجراءات معينة على كل منصة لإيقاف استخدامها مستقبلاً، مثلًا يمكن لمستخدمي Adobe تعطيل خيار تحليل المحتوى من صفحة الخصوصية، بينما تتيح جوجل إلغاء حفظ تفاعلاتك مع جيميني عبر إعدادات النشاط.
أما مستخدمو تويتر/X، فيمكنهم الدخول إلى إعدادات الخصوصية لإلغاء تفعيل مشاركة البيانات مع Chatbot “Grok” الذي طورته شركة xAI التابعة لإيلون ماسك.
من جهتها، أتاحت لينكد إن منذ العام الماضي خيارًا للمستخدمين لتعطيل استخدام منشوراتهم العامة في تدريب نماذج الذكاء الاصطناعي الخاصة بها، وفي حالة أدوات OpenAI مثل ChatGPT وDALL E، يمكن للمستخدمين الدخول إلى إعدادات الحساب وإلغاء تفعيل خيار “تحسين النموذج”، وفي حالة الصور، يطلب تقديم نموذج رسمي يثبت ملكية المحتوى للمطالبة بإزالته من التدريب المستقبلي.
مع ذلك، من المهم الإشارة إلى أن هذه الإجراءات لا تمحو البيانات التي قد تكون استخدمت بالفعل، خاصة وأن العديد من شركات الذكاء الاصطناعي ترفض الإفصاح عن مجموعات البيانات الخاصة بها لتجنب التدقيق القانوني أو التحديات المتعلقة بحقوق النشر.
في المجمل، يبدو أن شركات التكنولوجيا الكبرى تتعامل مع كل ما هو منشور على الإنترنت باعتباره “متاحًا للتدريب” طالما لم يحم بقوانين خصوصية صارمة.
وشركة مثل Meta، على سبيل المثال، تجمع المحتوى العام من المستخدمين البالغين لتدريب نماذجها، مع استثناءات فقط للمستخدمين داخل دول الاتحاد الأوروبي حيث تطبق قوانين أكثر صرامة.