إدانة شركة ميتا في المحاكم تسيئ لأبحاث الذكاء الاصطناعي وسلامة المستهلك

نشر
آخر تحديث
مارك زوكربيرغ، ميتا/ AFP

استمع للمقال
Play

قبل أكثر من عقد من الزمان، استعانت شركة ميتا Meta، بباحثين في العلوم الاجتماعية بهدف تحليل تأثير خدمات الشبكة الاجتماعية على المستخدمين. كان ذلك بمثابة وسيلة للشركة ونظيراتها لإظهار جديتها في فهم فوائد ومخاطر ابتكاراتها المحتملة، إلا أن المشهد تبدل مع إدانة الشركة التكنولوجية العملاقة بتهمة الإساءة للأطفال.

وفق ما تُظهر خسائر ميتا القضائية هذا الأسبوع، فإن عمل الباحثين قد يتحول إلى عبء. حيث قال برايان بولاند، المدير التنفيذي السابق في فيسبوك الذي أدلى بشهادته في كلتا المحاكمتين، إحداهما في نيو مكسيكو والأخرى في لوس أنجلوس، إن النتائج التي تُدين أبحاث ميتا الداخلية ووثائقها تُناقض على ما يبدو الصورة التي رسمتها الشركة لنفسها أمام العامة.


اقرأ أيضاً: في حكم تاريخي.. إدانة ميتا وغوغل بإلحاق الضرر بالقاصرين


وقد خلصت هيئات المحلفين في المحاكمتين إلى أن ميتا لم تُحكم الرقابة على موقعها بشكل كافٍ، مما عرّض الأطفال للخطر.

بدأت شركة مارك زوكربيرغ بتضييق الخناق على فرق البحث التابعة لها قبل بضع سنوات، بعد أن أصبحت الباحثة في فيسبوك، فرانسيس هوغن، من أبرز المُبلغين عن المخالفات. لاحقاً، استثمرت شركات التكنولوجيا الحديثة، مثل OpenAI وAnthropic، بكثافة في الباحثين، وكلّفتهم بدراسة تأثير الذكاء الاصطناعي الحديث على المستخدمين، ونشر نتائج أبحاثهم.

مع ازدياد الاهتمام بالذكاء الاصطناعي حالياً بسبب آثاره الضارة على بعض المستخدمين، بات لزاماً على هذه الشركات التساؤل عما إذا كان من مصلحتها الاستمرار في تمويل الأبحاث، أم قمعها.

قال بولاند في مقابلة: "كانت هناك فترة زمنية شُكّلت فيها فرق داخلية لدراسة الأمور، ولبرهة وجيزة، كان لدينا باحثون متميزون للغاية يدرسون ما يحدث في هذه المنتجات بحرية أكبر مما هو متاح لهم اليوم".

تركزت هزيمتا شركة ميتا هذا الأسبوع على قضيتين مختلفتين، لكنهما تشتركان في سمة واحدة: امتناع الشركة عن مشاركة معلوماتها حول أضرار منتجاتها مع عامة الناس.

عمل أعضاء هيئة المحلفين على تقييم ملايين الوثائق المؤسسية، بما في ذلك رسائل البريد الإلكتروني التنفيذية، والعروض التقديمية، والبحوث الداخلية التي أجراها موظفو شركة ميتا. تضمنت الوثائق استطلاعات رأي داخلية أظهرت نسبة مقلقة من المراهقين الذين تعرضوا لتحرشات جنسية على إنستغرام. كما تضمنت بحثاً، أوقفته ميتا لاحقاً، يشير إلى أن الأشخاص الذين قللوا من استخدامهم لفيسبوك أصبحوا أقل عرضة للاكتئاب والقلق.

لم يعتمد محامو المدعين في هذه القضايا على البحوث الداخلية فقط في حججهم، لكن تلك الدراسات ساهمت في تعزيز موقفهم بشأن مسؤولية ميتا المزعومة. جادل فريق الدفاع عن ميتا بأن بعض البحوث قديمة، ومقتطعة من سياقها، ومضللة، مما يُعطي صورة خاطئة عن كيفية عمل الشركة ونظرتها إلى السلامة.

أدت التسريبات أيضاً إلى تغييرات جذرية في شركة ميتا وقطاع التكنولوجيا، حيث بدأت الشركات في استبعاد الأبحاث التي قد تُعتبر مُضرة. وذكرت شبكة CNBC سابقاً أنه تم تقليص عدد كبير من الفرق البحثية التي تُعنى بدراسة الأضرار المزعومة والقضايا ذات الصلة.


اقرأ أيضاً: حكم قضائي يُلزم ميتا بدفع 375 مليون دولار في قضية استغلال الأطفال


كما بدأت بعض الشركات في إزالة بعض الأدوات والميزات من خدماتها التي كان يستخدمها باحثون مستقلون لدراسة منصاتها.

وقال بلوكر: "قد تنظر الشركات الآن إلى الأبحاث الجارية على أنها عبء، ولكن يجب الاستمرار في دعم الأبحاث المستقلة التي تُجريها جهات خارجية".

مع تسارع وتيرة دخول قطاع التكنولوجيا إلى عالم الذكاء الاصطناعي، تُعطي شركات مثل ميتا، وأوبن إيه آي، وغوغل الأولوية للمنتجات على حساب البحث والسلامة.

هذا التوجه يُثير قلق كيت بلوكر، مديرة الأبحاث والبرامج في المؤسسة غير الربحية للأطفال والشاشات: معهد الإعلام الرقمي وتنمية الطفل.، التي صرّحت قائلة: "كما هو الحال مع وسائل التواصل الاجتماعي، هناك نقصٌ في الشفافية العامة حول ما تُجريه شركات الذكاء الاصطناعي من دراساتٍ حول منتجاتها".

وأضافت بلوكر: "يبدو أن شركات الذكاء الاصطناعي تُركّز في الغالب على دراسة النماذج نفسها، سلوك النموذج، وقابليته للتفسير، ومدى توافقه - ولكن هناك فجوة كبيرة في الأبحاث المتعلقة بتأثير روبوتات المحادثة والمساعدين الرقميين على نمو الطفل". 

وتابعت: "أمام شركات الذكاء الاصطناعي فرصةٌ لتجنب تكرار أخطاء الماضي، فنحن بحاجة ماسة إلى إنشاء أنظمةٍ للشفافية وإتاحة الوصول تُشارك ما تعرفه هذه الشركات عن منصاتها مع الجمهور، وتدعم إجراء المزيد من التقييمات المستقلة".

تابعونا على منصات التواصل الاجتماعي

الأكثر تداولاً

    أخبار ذات صلة

    الأكثر قراءة

    الأكثر تداولاً

      الأكثر قراءة