كيف تمنع Meta من استغلال بياناتك الشخصية لتدريب نماذج الذكاء الاصطناعي؟

نشر
آخر تحديث
AFP

استمع للمقال
Play

أصبح بإمكان مستخدمي Facebook الآن حذف بعض المعلومات الشخصية التي يمكن أن تستخدمها الشركة في تدريب نماذج الذكاء الاصطناعي التوليدي.

وقامت Meta بتحديث قسم في مركز مساعدة Facebook على موقعها على الويب هذا الأسبوع ليشمل نموذجًا بعنوان "حقوق بيانات الذكاء الاصطناعي التوليدي"، والذي يسمح للمستخدمين "بإرسال طلبات تتعلق بمعلومات الطرف الثالث الخاصة بك المستخدمة في التدريب على نماذج الذكاء الاصطناعي التوليدي".

تضيف الشركة أداة إلغاء الاشتراك مع انطلاق تقنية الذكاء الاصطناعي التوليدية عبر التكنولوجيا، حيث تقوم الشركات بإنشاء روبوتات دردشة أكثر تقدمًا، وتحويل النص البسيط إلى إجابات وصور متطورة. يمنح Meta الأشخاص خيار الوصول إلى أو تغيير أو حذف أي بيانات شخصية تم تضمينها في مصادر بيانات الطرف الثالث المختلفة التي تستخدمها الشركة لتدريب نماذج لغتها الموسعة ونماذج الذكاء الاصطناعي ذات الصلة.

في النموذج، تشير Meta إلى معلومات الطرف الثالث على أنها بيانات "متاحة للجمهور على الإنترنت أو المصادر المرخصة". وتقول الشركة إن هذا النوع من المعلومات يمكن أن يمثل بعضًا من "مليارات القطع من البيانات" المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية التي "تستخدم التنبؤات والأنماط لإنشاء محتوى جديد".

وفي منشور مدونة ذي صلة حول كيفية استخدام البيانات للذكاء الاصطناعي التوليدي، تقول Meta إنها تجمع المعلومات العامة على الويب بالإضافة إلى بيانات الترخيص من مقدمي الخدمات الآخرين. وقال ميتا إن منشورات المدونة، على سبيل المثال، يمكن أن تتضمن معلومات شخصية، مثل اسم شخص ما ومعلومات الاتصال به.

لا يأخذ النموذج في الاعتبار نشاط المستخدم على المنصات المملوكة لـ Meta، سواء كانت تعليقات Facebook أو صور Instagram، لذلك من الممكن أن تستخدم الشركة بيانات الطرف الأول هذه لتدريب نماذج الذكاء الاصطناعي التوليدية الخاصة بها.

قال متحدث باسم Meta إن أحدث نموذج لغة كبير مفتوح المصدر Llama 2 للشركة "لم يتم تدريبه على بيانات مستخدم Meta، ولم نطلق أي ميزات مفتوحة للمستهلك تخض الذكاء الاصطناعي التوليدي على أنظمتنا حتى الآن".

وأضاف المتحدث: "اعتمادًا على المكان الذي يعيش فيه الأشخاص، قد يكونون قادرين على ممارسة حقوقهم في موضوع البيانات والاعتراض على استخدام بيانات معينة لتدريب نماذج الذكاء الاصطناعي لدينا"، في إشارة إلى قواعد خصوصية البيانات المختلفة خارج الولايات المتحدة والتي تمنح المستهلكين مزيدًا من التحكم في البيانات التي يمكن لشركات التكنولوجيا استخدامها بخصوص بياناتهم الشخصية.

مثل العديد من أقرانها في مجال التكنولوجيا، بما في ذلك Microsoft وOpenAI وAlphabet الشركة الأم لشركة Google، تجمع Meta كميات هائلة من بيانات الطرف الثالث لتدريب نماذجها وبرامج الذكاء الاصطناعي ذات الصلة.

وقالت ميتا في منشور المدونة: "لتدريب نماذج فعالة لفتح هذه التطورات، هناك حاجة إلى قدر كبير من المعلومات من المصادر المتاحة للجمهور والمرخصة". وأضافت الشركة أن "استخدام المعلومات العامة والبيانات المرخصة يصب في مصلحتنا، ونحن ملتزمون بالشفافية بشأن الأسس القانونية التي نستخدمها لمعالجة هذه المعلومات".

ولكن في الآونة الأخيرة، شكك بعض المدافعين عن خصوصية البيانات من ممارسة تجميع كميات هائلة من المعلومات المتاحة للجمهور لتدريب نماذج الذكاء الاصطناعي.

في الأسبوع الماضي، أصدر اتحاد من وكالات حماية البيانات من المملكة المتحدة وكندا وسويسرا ودول أخرى بيانًا مشتركًا إلى Meta وAlphabet وTikTok الأم ByteDance وX (المعروفة سابقًا باسم Twitter) وMicrosoft وآخرين حول جمع البيانات وحماية خصوصية المستخدم.

كان الهدف من الرسالة تذكير شركات التواصل الاجتماعي والتكنولوجيا بأنها تظل خاضعة لمختلف قوانين حماية البيانات والخصوصية في جميع أنحاء العالم و"أنهم يحمون المعلومات الشخصية التي يمكن الوصول إليها على مواقعهم الإلكترونية من الاستغلال".

وقالت المجموعة في البيان: "يمكن للأفراد أيضًا اتخاذ خطوات لحماية معلوماتهم الشخصية من السرقة، ولدى شركات التواصل الاجتماعي دور تلعبه في تمكين المستخدمين من التعامل مع خدماتها بطريقة تحمي الخصوصية".

وإليك كيفية حذف بعض بيانات Facebook الخاصة بك المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية:

• انتقل إلى نموذج "حقوق بيانات الذكاء الاصطناعي التوليدي" في صفحة سياسة خصوصية Meta حول الذكاء الاصطناعي التوليدي.

• انقر على الرابط "معرفة المزيد وإرسال الطلبات هنا".

• اختر من بين الخيارات الثلاثة حيث تقول Meta إنها "توصف بشكل أفضل مشكلتك أو اعتراضك".

يتيح الخيار الأول للأشخاص الوصول إلى أي من معلوماتهم الشخصية أو تنزيلها أو تصحيحها، والتي تم جمعها من مصادر خارجية تُستخدم لتدريب نماذج الذكاء الاصطناعي التوليدية. ومن خلال اختيار الخيار الثاني، يمكنهم حذف أي من المعلومات الشخصية من مصادر بيانات الطرف الثالث المستخدمة للتدريب. والخيار الثالث هو للأشخاص الذين "لديهم مشكلة مختلفة".

بعد تحديد أحد الخيارات الثلاثة، سيحتاج المستخدمون إلى اجتياز اختبار فحص الأمان. وعلق بعض المستخدمين بأنهم غير قادرين على إكمال النموذج بسبب ما يبدو أنه خطأ برمجي.

تابعونا على منصات التواصل الاجتماعي

الأكثر تداولاً

    أخبار ذات صلة

    الأكثر قراءة

    الأكثر تداولاً

      الأكثر قراءة