قال معهد فيوتشر أوف لايف "مستقبل الحياة" في إصدار جديد من مؤشر السلامة في الذكاء الاصطناعي نُشر، يوم الأربعاء 3 ديسمبر/ كانون الأول، إن ممارسات الأمان لدى شركات الذكاء الاصطناعي الكبرى، بما في ذلك أنثروبيك Anthropic وأوبن إيه آي OpenAI وإكس إيه آي xAI وميتا Meta، لا تزال "أدنى بكثير من المعايير العالمية الناشئة".
وأوضح المعهد أن لجنة مستقلة من الخبراء خلصت، خلال تقييمها لإجراءات السلامة، إلى أن على الرغم من تسابق الشركات لتطوير أنظمة فائقة الذكاء، فإن أيا منها لا يمتلك استراتيجية قوية للسيطرة على هذه النماذج المتقدمة.
اقرأ أيضاً: دراسة صادمة.. الذكاء الاصطناعي قادر بالفعل على استبدال 11.7% من القوى العاملة في أميركا
وتأتي هذه النتائج في ظل تزايد القلق العام بشأن التأثيرات الاجتماعية للأنظمة الأكثر ذكاء من البشر القادرة على التفكير المنطقي واتخاذ قرارات معقدة. ورُبطت بعض حالات الانتحار وإيذاء النفس بتفاعلات مع روبوتات محادثة تعمل بالذكاء الاصطناعي.
وقال ماكس تيجمارك الأستاذ في معهد ماساتشوستس للتكنولوجيا ورئيس معهد مستقبل الحياة "رغم الضجة المثارة في الآونة الأخيرة حول القرصنة القائمة على الذكاء الاصطناعي ومخاطر دفع هذه الأنظمة المستخدمين إلى الإصابة بالذهان أو إيذاء النفس، لا تزال شركات الذكاء الاصطناعي الأميركية أقل تنظيما من المطاعم وتواصل ممارسة ضغوط ضد معايير السلامة الملزمة".
شاهد أيضاً: البنوك المركزية تحذر.. تقييمات "مفرطة" للذكاء الاصطناعي
ولا يُظهر سباق تطوير الذكاء الاصطناعي أي تباطؤ، إذ تضخ شركات التكنولوجيا الكبرى مئات المليارات من الدولارات لتوسيع جهودها في مجال التعلم الآلي.
معهد مستقبل الحياة منظمة غير ربحية تُحذر من المخاطر الوجودية المحتملة للذكاء الاصطناعي. وتأسس المعهد عام 2014 وكان الرئيس التنفيذي لشركة تسلا إيلون ماسك من أوائل الداعمين له.
وفي رد آلي على ما يبدو، قالت شركة إكس إيه آي إن "وسائل الإعلام القديمة تكذب".
تابعونا على منصات التواصل الاجتماعي