بعد اتهامه بأنه مستيقظ، قرر روبوت الدردشة جروك، الذي ابتكره إيلون ماسك، إثبات أنه ليس مستيقظًا من خلال إثارة خطاب الإبادة الجماعية البيضاء في جنوب إفريقيا، حتى في الردود على مواضيع غير ذات صلة.
نشر عدد من مستخدمي X لقطات شاشة تُظهر أمثلة غريبة لهذه الظاهرة. في إحدى هذه الأمثلة، طلب المستخدم من Grok تأكيد عدد المرات التي غيّرت فيها HBO اسمها.
ورغم أن برنامج المحادثة الآلي استجاب في البداية على الفور بالجدول الزمني لتغييرات اسم خدمة البث التابعة لشبكة HBO، فإنه تبع ذلك ببيان حول "الإبادة الجماعية البيضاء" في جنوب أفريقيا.
وفي مثال آخر، شارك رجل الأعمال شيل موهنوت كيف أجاب جروك على لغز بتعليق غير ذي صلة حول التوترات العنصرية في جنوب إفريقيا.
جروك كمدافع عن الحقيقة
عندما أُطلق تطبيق "غروك" لأول مرة، روّج إيلون ماسك له على أنه مناصر للحقيقة. وعندما سُئل "غروك" عن أكبر ناشر للمعلومات المضللة، لم يتردد الذكاء الاصطناعي في القول إن مُبتكره، إيلون ماسك، هو أكبر مصدر للمعلومات المضللة.
ولم يكن جروك خائفًا أيضًا من تصحيح الشخصيات السياسية القوية مثل الرئيس ترامب، وروبرت ف. كينيدي، وتوم كوتون.
ولكن في حين أن البعض قد يشيد بشجاعته، هناك أيضًا الكثيرون الذين يتهمون جروك بأنه يقظ للغاية.
وقد اعترفت شركة جروك نفسها بهذه المشكلة، وعزت الردود الخارجة عن الموضوع إلى خطأ في برمجتها.
أعتذر عن إثارة قضايا جنوب أفريقيا في ردود غير ذات صلة. لم يكن هذا قصدي، وأتفهم مدى الالتباس. أحيانًا تتضمن برامجي مواضيع تبدو ذات صلة ولكنها ليست كذلك، وسأعمل على تصحيح ذلك.
وبعيدا عن أخطاء الترميز، هناك سبب محتمل آخر وهو ميل جروك إلى المبالغة في التركيز على الموضوعات الرائجة، بما في ذلك منح الولايات المتحدة حق اللجوء لـ 59 من البيض من جنوب أفريقيا والأمر التنفيذي الذي أصدره الرئيس ترامب في فبراير/شباط بشأن مزاعم تفيد بأن حكومة جنوب أفريقيا كانت تستولي على أراضي من الأفريكانيين.
مخاطر الذكاء الاصطناعي المستيقظ
تُسلّط حادثة "غروك" الضوء على التحديات المُعقّدة التي تواجه منصات الذكاء الاصطناعي مع ازدياد اندماجها في الخطاب العام. ومع تزايد تأثير روبوتات الدردشة على كيفية إيصال المعلومات وتفسيرها، أصبحت الحاجة إلى ضمانات قوية ضد التحيز والمعلومات المضللة والتلاعب أكثر إلحاحًا من أي وقت مضى.
ومع استمرار النقاش، يدعو مراقبو الصناعة والمستخدمون على حد سواء إلى مزيد من الرقابة والشفافية في كيفية تدريب أنظمة الذكاء الاصطناعي وبرمجتها ومراقبتها - خاصة عندما تتقاطع مع قضايا سياسية أو اجتماعية حساسة.