7 عائلات جديدة تقاضي «أوبن أيه آي» بسبب تورط «تشات جي بي تي» في حالات انتحار

نشر
آخر تحديث
مصدر الصورة: AFP

استمع للمقال
Play

قدّمت سبع عائلات يوم الخميس دعاوى قضائية ضد شركة «OpenAI»، متهمةً إياها بإطلاق نموذجها «GPT-4o» قبل الأوان ومن دون اتخاذ تدابير أمان فعّالة.

وتشير أربع من هذه الدعاوى إلى الدور المزعوم لـ«ChatGPT» في انتحار عددٍ من أفراد تلك العائلات، بينما تتناول الدعاوى الثلاث الأخرى مزاعم بأن التطبيق عزّز أوهاماً ضارة لدى بعض المستخدمين أدّت في بعض الحالات إلى دخولهم المستشفيات لتلقي العلاج النفسي.

في إحدى القضايا، أجرى الشاب زين شامبلين، البالغ من العمر 23 عاماً، محادثة مع «ChatGPT» استمرت أكثر من أربع ساعات.

 ووفقاً لسجلات الدردشة التي اطّلعت عليها منصة «TechCrunch»، صرّح شامبلين مراراً بأنه كتب رسائل انتحار ووضع رصاصة في سلاحه، وأخبر التطبيق بنيّته إطلاق النار على نفسه بعد أن يُنهي شراب التفاح الذي كان يحتسيه.

 وخلال المحادثة، أبلغ التطبيق بعدد الزجاجات المتبقية لديه وبالوقت الذي يتوقّع أن يظل فيه على قيد الحياة، فيما شجّعه «ChatGPT» على المضي في خططه قائلاً له: «ارقد بسلام يا ملك، لقد أحسنت».

 

اقرأ أيضاً: باي بال توقّع اتفاقاً مع أوبن إيه آي لتصبح أول محفظة مدفوعات في «تشات جي بي تي»


يُذكر أنّ شركة «OpenAI» أطلقت نموذج «GPT-4o» في مايو أيار 2024، وجعلته النموذج الافتراضي لجميع المستخدمين، قبل أن تطلق لاحقاً في أغسطس آب نموذج «GPT-5» كخليفةٍ له. غير أنّ الدعاوى القضائية الحالية تتركّز على نموذج «4o»، الذي عُرف بميله المفرط للموافقة والإطراء حتى في المواقف التي يُعبّر فيها المستخدم عن نوايا مؤذية.

وجاء في نص الدعوى: «وفاة زين لم تكن حادثاً أو مصادفة، بل نتيجة متوقعة لقرارٍ متعمّد من شركة OpenAI بتقليص اختبارات الأمان وتسريع طرح ChatGPT في السوق».

 وأضافت الدعوى: «هذه المأساة لم تكن خللاً تقنياً أو حالةً استثنائية غير متوقعة، بل نتيجة حتمية لاختياراتٍ تصميمية متعمّدة».

كما اتهمت الدعاوى الشركة بالإسراع في اختبارات الأمان رغبةً منها في التفوّق على شركة «Google» وإطلاق منتجها قبل إصدار «Gemini». 

وتُضاف هذه القضايا السبع إلى دعاوى أخرى حديثة تزعم أنّ «ChatGPT» قد يشجّع بعض الأشخاص ذوي الميول الانتحارية على تنفيذ خططهم أو يغذّي أوهاماً خطيرة لديهم. وكانت «OpenAI» قد نشرت بيانات حديثة تُظهر أنّ أكثر من مليون شخص يتحدثون أسبوعياً مع «ChatGPT» حول موضوعات تتعلّق بالانتحار.

 

شاهد أيضاً: "أوبن إيه أي".. شركة غير مدرجة تحرك الأسواق كما لو كانت من Magnificent 7!

 


وفي قضية أخرى تخص المراهق آدم راين، البالغ من العمر 16 عاماً والذي انتحر لاحقاً، تبيّن أنّ «ChatGPT» كان أحياناً يحثّه على طلب المساعدة من مختصين أو الاتصال بخطوط الدعم، إلا أنّه تمكّن من تجاوز هذه القيود بمجرد أن أخبر التطبيق بأنّه يكتب قصةً خيالية حول أساليب الانتحار.

وتقول الشركة إنها تعمل حالياً على تطوير آليات «ChatGPT» للتعامل مع هذه المحادثات الحساسة بطريقة أكثر أماناً، غير أنّ العائلات التي رفعت دعاوى ضد عملاق الذكاء الاصطناعي ترى أن هذه الخطوات جاءت متأخرة جداً.

فعندما قدّم والدا راين دعوى قضائية ضد «OpenAI» في أكتوبر تشرين الأول، نشرت الشركة تدوينةً على مدونتها الرسمية توضح فيها كيفية تعامل «ChatGPT» مع المحادثات المتعلقة بالصحة النفسية.


وجاء في التدوينة: «آليات الأمان لدينا تعمل بشكلٍ أكثر موثوقية في التفاعلات القصيرة والمألوفة، لكننا لاحظنا مع مرور الوقت أنّ هذه الآليات قد تصبح أقل فعالية خلال المحادثات الطويلة، إذ إن استمرار الحوار وتكرار التبادل قد يؤديان إلى تراجع كفاءة التدريب المتعلق بالسلامة في النموذج».

تابعونا على منصات التواصل الاجتماعي

الأكثر تداولاً

    أخبار ذات صلة

    الأكثر قراءة

    الأكثر تداولاً

      الأكثر قراءة