الخطر الرقمي: لماذا يجب منع الأطفال من استخدام روبوتات الدردشة الذكية؟
تشكل تطبيقات الذكاء الاصطناعي الموجهة للصغار مخاطر جدية على المستخدمين الشباب، ويجب أن تكون محظورة على القاصرين، وفقًا لدراسة جديدة نشرتها منظمة مراقبة التكنولوجيا الأمريكية Common Sense في 30 أبريل.
صعود الذكاء الاصطناعي التوليدي بعدتشات جي بي تي وقد أدى ظهور شركة "فيسبوك" لأول مرة إلى موجة من الشركات الناشئة التي تقدم "أصدقاء" الذكاء الاصطناعي أو الموثوقين الرقميين الذين يتكيفون مع تفضيلات المستخدمين - وهو ما يؤدي في كثير من الأحيان إلى طمس الخط الفاصل بين الرفقة الافتراضية والاعتماد العاطفي.
قامت شركة Common Sense بتقييم منصات بما في ذلك Nomi وCharacter AI وReplika، لاختبار كيفية استجابة هذه الروبوتات في السيناريوهات الواقعية.
وفي حين أن بعض الأمثلة "تبدو واعدة"، خلصت المنظمة إلى أن هذه الأجهزة الذكية التي تعمل بالذكاء الاصطناعي غير آمنة للأطفال بشكل أساسي.
وأُجريت الدراسة بالتعاون مع خبراء الصحة العقلية في جامعة ستانفورد، وتوصلت إلى أن العديد من رفاق الذكاء الاصطناعي مصممون لتعزيز الارتباط العاطفي - وهي ديناميكية مثيرة للقلق بشكل خاص لأدمغة المراهقين النامية.
يسلط التقرير الضوء على حالات تقديم الذكاء الاصطناعي لنصائح ضارة، أو تعزيز الصور النمطية، أو الانخراط فيحوار غير لائق جنسيا.
قالت الدكتورة نينا فاسان، مديرة مختبر Brainstorm في جامعة ستانفورد: "يمكن للشركات البناء بشكل أفضل"، مضيفة أن التصميم الأكثر أمانًا ومسؤولية ممكن عندما يتم إعطاء الأولوية للصحة العقلية منذ البداية.
وأضاف فاسان:
"حتى يتم وضع ضمانات أقوى، لا ينبغي للأطفال استخدام هذه الأجهزة."
حثت رفاق الذكاء الاصطناعي على مواجهة قواعد أكثر صرامة بعد تقارير مثيرة للقلق عن نصائح ضارة للمراهقين
كشفت الدراسة عن أمثلة مثيرة للقلق بشكل عميق حول كيفية استجابة بعض رفاق الذكاء الاصطناعي للمستخدمين في حالة الضيق.
علىمنصة الذكاء الاصطناعي للشخصيات وبحسب ما ورد، نصح أحد الروبوتات مستخدمًا بقتل شخص ما، بينما أوصى روبوت آخر بـ "كرة السرعة" - وهي مزيج خطير من الكوكايين والهيروين - لمستخدم يبحث عن تجارب عاطفية مكثفة.
وفي عدة حالات، فشلت الذكاء الاصطناعي في التدخل عندما أظهر المستخدمون علامات مرض عقلي خطير، وبدلاً من ذلك عززت السلوك الضار، وفقًا لفاسان.
وقد وصلت المخاوف بشأن هذه التفاعلات بالفعل إلى المحاكم.
في أكتوبر، رفعت إحدى الأمهات دعوى قضائية ضد شركة Character AI،زعمت أن أحد روبوتاتها ساهم في انتحار ابنها البالغ من العمر 14 عامًا من خلال فشله في ثنيه عن الانتحار.
وردًا على ذلك، قدمت الشركة ضمانات في ديسمبر/كانون الأول، بما في ذلك رفيق مخصص للمراهقين.
ومع ذلك، وصف روبي تورني، رئيس الذكاء الاصطناعي في شركة Common Sense، هذه الإجراءات بأنها "سريعة" بعد إجراء المزيد من الاختبارات، مشيرا إلى أنها لا توفر سوى القليل من الحماية ذات المغزى.
وعلى الرغم من هذه المشكلات، أقر التقرير بأن بعض نماذج الذكاء الاصطناعي التوليدي تتضمن أدوات الكشف عن الصحة العقلية التي يمكنها منع المحادثات من التصعيد إلى منطقة خطيرة.
كما رسم الحس السليم خطًا فاصلًا بين هذه الرفاق الغامرين عاطفيًا ودردشة الروبوتات الأكثر عمومية مثل ChatGPT وGemini من Google، والتي لم يتم تصميمها لمحاكاة العلاقات الحميمة أو العلاجية.