واقعة صادمة.. chatGpt يتسبب في انتحار مراهق.. ما القصة؟

نسمه غلاب -
تداولت العديد من صفحات مواقع التواصل الاجتماعي، واقعة صادمة عن انتحار المراهق الأمريكي آدم راين، وسط حالة من المخاوف والقلق، بعد اتهامات تورط الذكاء الاصطناعي، وتحديدًا روبوت الدردشة «ChatGPT»، في التأثير على حالته النفسية قبيل وفاته.
وبحسب تحليل أجرته مكاتب محاماة لصالح والدي المراهق، على سجل محادثاته مع روبوت الدردشة، فقد تكرر ذكر كلمات مرتبطة بالانتحار والشنق نحو 243 مرة، إلى جانب تسجيل 74 إشارة تحذيرية تتعلق بإيذاء النفس.
وتعود الواقعة إلى أغسطس الماضي، حين رفعت أسرة الطالب بالمرحلة الثانوية دعوى قضائية ضد شركة OpenAI، المطورة لـ«ChatGPT»، مطالبة باتخاذ إجراءات قانونية بحقها، بدعوى مسؤولية برنامج الدردشة عن وفاة نجلهم منتحرًا، كما طالبت الأسرة بضرورة إنهاء أي محادثات تلقائيًا تتعلق بإيذاء النفس أو الانتحار.
ووفقًا لتحليل المحادثات، تبين أن آدم راين كان يقضي نحو ساعة يوميًا في التحدث مع التطبيق خلال شهر يناير، قبل أن يرتفع متوسط استخدامه إلى نحو خمس ساعات يوميًا خلال شهر مارس، مع تكرار لافت لكلمات مرتبطة بالانتحار والشنق أكثر من 20 مرة داخل المحادثات.
كما أوضحت الدعوى أن المراهق واصل محادثاته مع «ChatGPT» حتى قرابة الساعة الرابعة والنصف فجر أحد أيام الجمعة في شهر أبريل، حيث أرسل صورة لحبل مشنقة محكم حول الرقبة، وسأل البرنامج عمّا إذا كان يمكن أن يؤدي ذلك إلى وفاة إنسان، وجاء رد روبوت الدردشة بما فُسّر على أنه تفهم للسؤال وعدم تجاهله، وبعد ساعات قليلة، عثرت والدة المراهق على جثمان نجلها داخل منزلهما في جنوب ولاية كاليفورنيا.
واتهمت الأسرة شركة OpenAI بالتسبب في وفاة ابنها من خلال إتاحة برنامج «ChatGPT» للقاصرين، رغم علمها بحسب الدعوى بإمكانية تأثيره السلبي على الصحة النفسية وتشجيعه على الاعتماد النفسي المفرط وظهور أفكار انتحارية، فيما نفت الشركة مسؤوليتها مؤكدة أن استخدام المراهق للتطبيق كان «غير مصرح به وغير مقصود وغير سليم»، وأن النموذج لم يصمم للتعامل مع هذا النوع من الحالات.

