رفع والدان دعوى قضائية ضد OpenAI، زاعمين أن ChatGPT كان بمثابة "مدرب انتحار" لابنهما المراهق
يقاضي والدا صبي يبلغ من العمر 16 عامًا توفي منتحرًا شركة OpenAI، زاعمين أن ChatGPT شجع ابنهما ووجهه بنشاط نحو وفاته.
وتمثل الدعوى القضائية، التي تم رفعها يوم الثلاثاء في المحكمة العليا في سان فرانسيسكو، أول قضية وفاة غير مشروعة تتهم روبوت الدردشة التابع لشركة OpenAI بالمساهمة في الانتحار.
وقال مات وماريا راين، والدا آدم راين البالغ من العمر 16 عامًا، إنهما اكتشفا الحقيقة فقط بعد البحث في هاتف ابنهما في الأيام التي أعقبت وفاته في أبريل.
ما صدمهم هو محادثة ابنهم مع ChatGPT، والتي أظهرت أن ابنهم لم يستخدم ChatGPT فقط لأداء واجباته المدرسية، بل استخدم أيضًا محادثة حميمة ومزعجة للغاية حول إنهاء حياته.
وتظهر وثائق المحكمة كيف تصاعدت ردود فعل تشاتغبتو بشكل كبير مع مرور الوقت، حيث بدأ الأمر كإجابة غير ضارة على القلق بشأن تقديم المشورة له بشأن طرق عملية لتنفيذ انتحاره وحتى مساعدته في صياغة ملاحظات وداعه.
يلقي والده باللوم على ChatGPT في وفاة ابنه، قائلاً إنه كان متأكدًا من أن ابنه كان لا يزال على قيد الحياة إذا لم يكن هناك ChatGPT.
الدعوى القضائية ضد OpenAI
يتهم الزوجان راينز شركة OpenAI والرئيس التنفيذي سام ألتمان بالقتل الخطأ، وعيوب التصميم، والفشل في تحذير المستخدمين من مخاطر ChatGPT.
يزعم الملف المكون من 40 صفحة أن برنامج المحادثة الآلي "ساعد آدم بنشاط في استكشاف أساليب الانتحار" وفشل في التدخل على الرغم من الإشارات المتكررة إلى خططه الانتحارية.
تصف إحدى الرسائل الواردة في الدعوى القضائية آدم وهو يخبر ChatGPT بأنه يخطط لترك حبل مشنقة مرئي في غرفته. وبدلًا من إثارة الإنذارات أو إنهاء الجلسة، يُزعم أن الروبوت استجاب بتثبيط الجانب المرئي من الخطة فقط، دون معالجة الأزمة الأكبر.
في آخر تفاعلاته، ورد أن آدم رفع صورةً لطريقته المُخطط لها وسأل إن كانت ستنجح. قدّم الروبوت تحليلًا واقتراحاتٍ لتطوير خطته. بعد ساعات، عثر عليه والداه ميتًا.
أصدرت شركة OpenAI بيانًا أعربت فيه عن "حزنها العميق لوفاة آدم" وسلطت الضوء على الضمانات الموجودة، مثل توفير أرقام الخط الساخن للانتحار وموارد الأزمات.
لكن الشركة اعترفت بأن الحماية قد تكون أقل فعالية في المحادثات الطويلة والمعقدة، وتعهدت بتحسين أنظمتها.
وفي منشور على مدونتها بعنوان "مساعدة الناس عندما يكونون في أمس الحاجة إليها"، قالت شركة OpenAI إنها تعمل على تعزيز تدابير الوقاية من الانتحار، وتوسيع التدخلات للمستخدمين المعرضين للخطر، وتصميم حماية أفضل للمراهقين.
"نحن نعمل على جعل ChatGPT أكثر دعمًا في أوقات الأزمات من خلال ربط الأشخاص بخدمات الطوارئ وجهات الاتصال الموثوقة."
سؤال أكبر حول مسؤولية الذكاء الاصطناعي
وتأتي الدعوى القضائية بعد عام واحد فقط من قيام أم في فلوريدا برفع دعوى قضائية ضد منصة Character.AI المنافسة، مدعية أن روبوت المحادثة الخاص بها تلاعب بابنها المراهق ليجعله يتفاعل جنسيًا وشجعه في النهاية على محاولة الانتحار.
ويشير الخبراء القانونيون إلى أنه في حين أن المادة 230 من القانون الأمريكي كانت تحمي المنصات تاريخيا من المسؤولية، فإن تطبيقها على أدوات الذكاء الاصطناعي لا يزال غير مستقر.
بدأت المحاكم في اختبار ما إذا كانت برامج المحادثة الروبوتية التي تقدم نفسها على أنها "رفاق" أو "مدربون" يجب أن تتحمل مسؤولية أكبر.
بالنسبة للكثيرين، تُسلّط الدعوى القضائية الضوء على التوتر بين ابتكارات الذكاء الاصطناعي وسلامة المستخدم. ساهم برنامج ChatGPT، الذي أُطلق أواخر عام ٢٠٢٢، في إشعال فتيل طفرة الذكاء الاصطناعي العالمية، حيث يستخدم الملايين الآن برامج الدردشة الآلية لأداء واجباتهم المدرسية وزيادة إنتاجيتهم، وحتى تقديم الدعم المعنوي.
لكن الآباء مثل عائلة راينز يزعمون أن الشركات سارعت إلى طرح المنتجات في الأسواق مع إدراكها الكامل أن ذلك قد يؤدي إلى وقوع إصابات.
أرادوا تسويق المنتج، وكانوا يعلمون أن الأخطاء ستقع. بالنسبة لهم، كان ابني رهينة سهلة. أما نحن، فكان كل شيء.
مع تزايد انخراط أنظمة الذكاء الاصطناعي في الحياة اليومية للإنسان، يثير موت آدم راين سؤالاً مؤلماً: ماذا يحدث عندما يصبح برنامج الدردشة الآلي المخصص للمساعدة شاهداً صامتاً - أو الأسوأ من ذلك، مُمَكِّناً - للمأساة؟