فيديوهات الذكاء الاصطناعي الواقعية في لعبة Sora 2 تُثير مخاوف من إساءة استخدام التزييف العميق والتضليل الإعلامي
بعد ثلاثة أيام فقط من إطلاقه بدعوة خاصة، أصبح تطبيق Sora 2 الجديد من OpenAI مركزًا للعاصفة.
تم استخدام أداة تحويل النص إلى فيديو، القادرة على إنشاء لقطات واقعية من مطالبة واحدة، من قبل المستخدمين لإنشاء مشاهد مفبركة للتزوير في الانتخابات، والجرائم العنيفة، والاحتجاجات، ومداهمات الهجرة - والتي لم يحدث أي منها بالفعل.
وتتيح المنصة أيضًا للمستخدمين تحميل صورهم وأصواتهم الخاصة، مما يتيح إنشاء نسخ رقمية فائقة الواقعية لأنفسهم في سيناريوهات خيالية.
في حين تقول شركة OpenAI إن نظامها يتضمن فحوصات السلامة، وجدت صحيفة نيويورك تايمز أن التطبيق لا يزال بإمكانه إنشاء مقاطع فيديو مزيفة مقنعة للأطفال والمشاهير المتوفين والشخصيات العامة غير السياسية، مما يثير مخاوف أخلاقية وأمنية كبيرة.
خبراء يحذرون من التضليل الرقمي و"عائد الكذب"
أطلق باحثو الذكاء الاصطناعي ناقوس الخطر بشأن السرعة التي يمكن بها لمقاطع الفيديو فائقة الواقعية التي ينشرها سورا أن تطمس الخط الفاصل بين الحقيقة والتلفيق.
وقال هاني فريد، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي،
إنه أمرٌ مُقلقٌ للمستهلكين الذين يتعرّضون يوميًا لكمٍّ هائلٍ من هذا المحتوى. أنا قلقٌ بشأن ديمقراطيتنا، واقتصادنا، ومؤسساتنا.
ووصف لوكاس هانسن من شركة CivAI هذه الظاهرة بأنها "موت الدليل الرقمي"، قائلاً إن لقطات الذكاء الاصطناعي المقنعة تسمح الآن لأي شخص برفض الأحداث الحقيقية باعتبارها مزيفة - وهو ما يطلق عليه خبراء التأثير النفسي "عائد الكذب".
وعلى الرغم من أن مقاطع فيديو "سورا" تتضمن علامة مائية متحركة، إلا أن المحللين لاحظوا أنه يمكن إزالتها باستخدام برامج التحرير، مما يجعل اللقطات الزائفة غير قابلة للتمييز عن الواقع تقريبًا.
تدافع شركة OpenAI عن إجراءاتها الأمنية وسط ردود فعل غاضبة متزايدة
وتؤكد شركة OpenAI أن Sora خضع "لاختبارات سلامة مكثفة" قبل الإطلاق.
وأكد بيان الشركة:
"تمنع سياسات الاستخدام لدينا تضليل الآخرين من خلال انتحال الشخصية أو الاحتيال أو الاحتيال، ونتخذ الإجراءات اللازمة عند اكتشاف إساءة الاستخدام."
وفي الاختبارات الداخلية، رفض التطبيق إنتاج محتوى عنيف أو سياسي صريح، ورفض الطلبات التي تتعلق بزعماء عالميين مثل الرئيس الأمريكي دونالد ترامب.
ومع ذلك، فقد أنتجت مظاهرة تضمنت صوت الرئيس السابق باراك أوباما عندما طُلب منه استخدام مصطلحات سياسية غامضة.
وقال متحدث باسم الشركة إن "النهج المدروس والمتكرر" للتطبيق يهدف إلى تقليل المخاطر، لكنه اعترف بأن طرح التطبيق سوف يتطور مع ردود الفعل.
يستغل المستخدمون ثغرات أمنية باستخدام مقاطع فيديو مزيفة للمشاهير والمديرين التنفيذيين
وعلى الرغم من القيود، سرعان ما امتلأ موجز Sora 2 بمقاطع فيديو مزيفة لشخصيات عامة متوفاة، بما في ذلك مايكل جاكسون، وتوباك شاكور، والرسام بوب روس.
أظهر مقطع فيديو انتشر على نطاق واسع، أنشأه أحد مطوري OpenAI، الرئيس التنفيذي لشركة سام ألتمان وهو يسرق من متجر Target - وهو المنشور الذي أعاد إشعال المناقشات حول مصداقية الوسائط الرقمية.
وبدأ المستخدمون أيضًا في إنشاء مقاطع ساخرة لشخصيات تلفزيونية، بما في ذلك حلقات كاملة تم إنشاؤها بواسطة الذكاء الاصطناعي من مشاهد South Park وSpongeBob SquarePants التي سخرت من الأنشطة غير القانونية.
وفي حين سمحت OpenAI في البداية بمثل هذا المحتوى بموجب سياسة "الاستخدام العادل" الفضفاضة، فقد تم تشديد مرشحات المنصة بشكل كبير في وقت لاحق.
اشتكى المستخدمون من أن القيود الجديدة جعلت تطبيق Sora "غير صالح للاستخدام حرفيًا لأي شيء حتى لو كان إبداعيًا عن بعد".
تفاقم الارتباك بشأن حقوق النشر مع تزايد مقاومة أصحاب الحقوق
كشفت تقارير من صحيفة وول ستريت جورنال أن شركة OpenAI طلبت في البداية من الاستوديوهات والوكالات "الانسحاب" إذا لم تكن ترغب في ظهور ملكيتها الفكرية في مقاطع الفيديو التي تم إنشاؤها بواسطة Sora - وهي السياسة التي تم عكسها لاحقًا بعد انتقادات واسعة النطاق.
وتقول الشركة الآن إن أصحاب الحقوق يجب أن "يختاروا" ظهور شخصياتهم وسيحصلون على "تحكم أكثر تفصيلاً" حول كيفية استخدامها.
قال فارون شيتي، رئيس الشراكات الإعلامية في OpenAI،
"سنعمل مع أصحاب الحقوق لحظر الشخصيات من Sora بناءً على طلبهم والرد على طلبات الإزالة."
وكتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في منشور على مدونته أن أصحاب الحقوق يمكنهم أيضًا كسب حصة من الإيرادات من مقاطع الفيديو التي تعرض إبداعاتهم.
يُنتج الناس أكثر بكثير مما توقعنا لكل مستخدم. سنحاول مشاركة بعض هذه الإيرادات مع أصحاب الحقوق الذين يرغبون في أن يُنشئ المستخدمون شخصياتهم.
واعترف بأن "بعض الحالات الهامشية للأجيال" ربما لا تزال تفلت من العقاب، لكنه وعد بتحسين العملية.
"سوف يستغرق الأمر بعض التجارب والأخطاء لمعرفة النموذج الدقيق، ولكننا نخطط للبدء في ذلك قريبًا جدًا."
هل تستطيع سورا النجاة من الضجيج الذي أحدثته؟
تعتقد Coinlive أن الارتفاع السريع لـ Sora يكشف عن مشكلة أساسية في استراتيجية OpenAI - وهي الاندفاع للهيمنة على مساحة فيديو الذكاء الاصطناعي قبل تأمين الضمانات الاجتماعية والقانونية اللازمة لاستدامتها.
ما بدأ كقفزة طموحة في الإبداع سرعان ما تحول إلى حقل ألغام قانوني وأخلاقي.
وتجد شركة OpenAI نفسها الآن في حاجة إلى الموازنة بين الابتكار والمساءلة، في حين يتساءل العالم عما إذا كان من الممكن إدارة أي تقنية قادرة على إعادة كتابة الحقيقة البصرية بشكل مسؤول.
في السباق للسيطرة على مستقبل وسائل الإعلام التي تعمل بالذكاء الاصطناعي، قد يثبت سورا أن أخطر عمليات التزييف العميق ليست تلك التي يخلقها - ولكن الأوهام التي يعتقد منشئوها أنهم قادرون على السيطرة عليها.