استقالة تدق جرس الإنذار.. ماذا يحدث خلف الأبواب المغلقة للذكاء الاصطناعي؟

نشر
آخر تحديث

استمع للمقال
Play

"العالم في خطر.. ليس فقط من الذكاء الاصطناعي، ولكن من سلسلة كاملة من الأزمات المترابطة التي تتكشف في هذه اللحظة بالذات".. جزء من رسالة الاستقالة المُطولة التي كتبها أحد موظفي شركة أنثروبيك، والتي فجّرت جدلاً بشأن فقدان السيطرة على الـ AI.. فما القصة وراء هذا التحذير الصادم؟

في منشور على موقع X صباح يوم الاثنين التاسع من فبراير/ شباط، أعلن مرينانك شارما، وهو باحث في السلامة في الذكاء الاصطناعي بشركة أنثروبيك منذ أغسطس/ آب 2023، استقالته من الشركة، حيث كان يجري أبحاثاُ حول كيفية الحد من مخاطر الذكاء الاصطناعي، كما تضمنت بعض مهامه تطوير وسائل دفاعية ضد الإرهاب البيولوجي المدعوم بالذكاء الاصطناعي.

خلال رسالته، حذر الموظف السابق بالشركة من عالم "في خطر" ومن صعوبة السماح "لقيمنا بأن تحكم أفعالنا"، قائلاً: "يبدو أننا نقترب من عتبة يجب أن تنمو فيها حكمتنا بنفس القدر الذي تنمو فيه قدرتنا على التأثير في العالم، وإلا فإننا سنواجه العواقب"، دون أن يقدم المزيداً من التفاصيل الشارحة لموقفه في رسالته التي تشير أيضاً إلى أن الشركة قد وضعت قيمها جانباً.

وأضاف أنه "شاهد مراراً وتكراراً مدى صعوبة السماح لقيمنا بأن تحكم أفعالنا" أثناء عمله في شركة أنثروبيك، مضيفاً: "نواجه باستمرار ضغوطاً للتخلي عما هو أهم"، على الرغم من أنه لم يقدم أي تفاصيل محددة.


نص الاستقالة


وحدد شارما وجهته التالية، التي لم تكن شركة منافسة أو بديلة، إنما كشف عن أنه يسعى للحصول على شهادة في الشعر و"يكرس نفسه لممارسة الخطاب الشجاع" على حد وصفه، مضيفاً أنه يريد "المساهمة بطريقة تشعر أنها تتوافق تمامًا مع نزاهته".

حظت الاستقالة برواجٍ واسع عبر منصات التواصل الاجتماعي، باعتبارها جرس إنذار بشأن مخاطر الذكاء الاصطناعي والتحديات الأخلاقية المرتبطة بها، وجاء ضمن أحد التعليقات: "عندما يختار باحث السلامة في الذكاء الاصطناعي دراسة الشعر على الإنتاج، فهذا يخبرك بشيء عن ما يحدث خلف الأبواب المغلقة".

أبحاث

ذكر شارما -في رسالة استقالته- أن بعض أعماله تضمنت تطوير وسائل دفاعية ضد الإرهاب البيولوجي المدعوم بالذكاء الاصطناعي، وبحث ظاهرة التملق المفرط للذكاء الاصطناعي ، وهي الظاهرة التي تُبالغ فيها برامج الدردشة الآلية في مدح المستخدم وإطرائه.

 وبحسب تقرير نشره فريق شارما في مايو/ آيار الماضي، ركز فريق أبحاث الضمانات على البحث والتطوير في مجال الضمانات ضد الجهات التي تستخدم برامج الدردشة الآلية للحصول على إرشادات حول كيفية القيام بأنشطة خبيثة.

وفق دراسة نشرها شارما الأسبوع الماضي، بحث فيها كيف يمكن أن يؤدي استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى تكوين تصور مشوه للواقع لدى المستخدمين، وجد أن "آلافًا" من هذه التفاعلات التي قد تُنتج هذه التشوهات "تحدث يوميًا".

تُعدّ الحالات الشديدة من التصورات المشوهة للواقع، والتي يُشير إليها شارما بأنماط التهميش، نادرة، لكن معدلاتها أعلى فيما يتعلق بمواضيع مثل العلاقات والصحة، وفق تقرير لـ "فوربس".

وقال شارما إن نتائج دراسته "تُبرز الحاجة إلى أنظمة ذكاء اصطناعي مُصممة لدعم استقلالية الإنسان وازدهاره بشكل فعّال".

استقالات أخرى

ويشار إلى أن موظفين بارزين آخرين في شركات الذكاء الاصطناعي كانوا قد استقالوا من مناصبهم، مُعللين ذلك بمخاوف أخلاقية.

من بين هؤلاء كان توم كانينغهام، الباحث الاقتصادي السابق في شركة OpenAI، في سبتمبر/أيلول، وذكر في رسالة داخلية أنه شعر بالإحباط من تردد الشركة المتزايد في نشر أبحاث تنتقد استخدام الذكاء الاصطناعي.

وفي عام 2024، حلّت OpenAI فريق Superalignment، وهو فريق أبحاث السلامة، بعد استقالة اثنين من أعضائه الرئيسيين. وأحد هذين العضوين، يان ليك - الذي يرأس الآن أبحاث السلامة في شركة Anthropic - كتب في منشور على منصة X عند استقالته أنه كان "يختلف مع قيادة OpenAI حول أولويات الشركة الأساسية لفترة طويلة، إلى أن وصلنا إلى نقطة اللاعودة"، وفق فوربس.

وقالت غريتشن كروجر ، التي تركت منصبها كباحثة في سياسات الذكاء الاصطناعي بعد ليك بفترة وجيزة، في منشورات على منصة X إن الشركة بحاجة إلى بذل المزيد من الجهود لتحسين "عمليات صنع القرار، والمساءلة، والشفافية"، و"التخفيف من آثار عدم المساواة، والحقوق، والبيئة".


اقرأ أيضاً:

كيف استطاعت شركة أنثروبيك الصمود في سباق مجال الذكاء الاصطناعي؟

مخاطر التدفق النقدي تحيط بالإنفاق على تقنيات الذكاء الاصطناعي المقدرة بـ700 مليار دولار في 2026

مخاوف فقاعة الذكاء الاصطناعي تقلب الأسواق.. شركات التكنولوجيا الكبرى تخسر أكثر من تريليون دولار

تابعونا على منصات التواصل الاجتماعي

الأكثر تداولاً

    أخبار ذات صلة

    الأكثر قراءة

    الأكثر تداولاً

      الأكثر قراءة