يطالب المشرعون الأمريكيون بالتحقيق في برنامج الذكاء الاصطناعي الصيني DeepSeek بسبب مخاوف تتعلق بالأمن القومي
في تصعيد حاد للتوترات التكنولوجية بين الولايات المتحدة والصين، دعا سبعة من أعضاء مجلس الشيوخ الجمهوريين وزارة التجارة الأمريكية إلى إطلاق تحقيق في DeepSeek، شركة الذكاء الاصطناعي الصينية التي تقف وراء نموذج R1 مفتوح المصدر الذي يزداد شعبية، مشيرين إلى مخاوف خطيرة تتعلق بالأمن القومي وخصوصية البيانات.
الرسالة -التي أُرسلت في الأول من أغسطس ونشرت للعامة هذا الأسبوع- تحذر من أن نموذج R1 التابع لشركة DeepSeek قد يتسبب في تسريب بيانات حساسة لمستخدمين أمريكيين وقد يساعد بكين في أهداف المراقبة أو العسكرية.
ويصف المشرعون الوضع بأنه مثير للقلق الشديد، خاصة بالنظر إلى إمكانية الوصول المفتوح إلى النموذج والضمانات غير الواضحة.
تشير التقييمات الرسمية المذكورة في الرسالة إلى أن شركة DeepSeek قد دعمت سابقًا، وقد تستمر في دعم، العمليات العسكرية والاستخباراتية للحكومة الصينية. ويجادل أعضاء مجلس الشيوخ بأن السماح بانتشار DeepSeek R1 يُشكل خطرًا غير مقبول.
وتكمن إحدى المخاوف الرئيسية في بنية النموذج مفتوحة المصدر، والتي تسمح لأي شخص بتنزيل وتعديل أوزان النموذج - المعلمات الأساسية التي توجه سلوكه.
ويقولون إن هذا الإعداد يفتح الباب أمام القراصنة لتنفيذ جرائم خبيثة مثل تنفيذ التعليمات البرمجية عن بعد، وسرقة البيانات، والتلاعب بالنماذج، وغيرها من أشكال سوء الاستخدام المعادي.
ونظرا لهذه الثغرات الأمنية، يصر المشرعون على أن هناك حاجة ملحة إلى رقابة أكثر صرامة لضمان عدم تعرض نماذج الذكاء الاصطناعي التي تم تطويرها في الخارج والتي تعمل في الولايات المتحدة لبيانات حساسة أو تمكين الاستغلال الضار.
أفادت التقارير أن إدارة ترامب كانت قد فكرت في حظر DeepSeek خلال فترة ولايتها بسبب افتقار النموذج إلى حواجز الأمان. ويقول المنتقدون إن هذه الحماية الضعيفة سمحت لـ R1 بإنشاء محتوى ضار.
ومن بين حالات الاستخدام الأكثر إثارة للقلق التي تم ذكرها: يزعم أن النموذج قدم تعليمات لإطلاق حملات على وسائل التواصل الاجتماعي للترويج لإيذاء المراهقين لأنفسهم، بالإضافة إلى إرشادات خطوة بخطوة لبناء سلاح بيولوجي - مما أثار غضب صناع السياسات وخبراء سلامة الذكاء الاصطناعي على حد سواء.
التنظيم مقابل الابتكار
في حين يؤكد المشرعون على الحاجة إلى وضع حواجز قوية، يحذر بعض الخبراء من العواقب غير المقصودة في حالة تجاوز التنظيم للحدود.
يحذر كريس أندرسون، الرئيس التنفيذي لشركة بايت نوفا للذكاء الاصطناعي، من أن الحظر الشامل قد يؤدي إلى تركيز السيطرة في أيدي عدد قليل من شركات التكنولوجيا الأمريكية الكبرى، مما يؤدي إلى احتكار الذكاء الاصطناعي وخنق الابتكار مفتوح المصدر.
ومع ذلك، يعترف أندرسون بأنه في السياقات الفيدرالية والبنية التحتية الحيوية، حتى الاستغلال الذي قد يكون منخفض الاحتمالية قد يؤدي إلى أضرار كارثية.
عندما يكون المصدر وقابلية التدقيق غير واضحين، تُخاطر الشركات بكشف بيانات حساسة دون علمها أو تمكين إساءة استخدامها.
مع تزايد القلق الحزبي في واشنطن بشأن تأثير التكنولوجيا الصينية، فإن نتيجة أي تحقيق تجريه وزارة التجارة في DeepSeek قد تكون لها آثار واسعة النطاق - ليس فقط على الأمن القومي وسباق التكنولوجيا بين الولايات المتحدة والصين، ولكن أيضًا على مستقبل تطوير الذكاء الاصطناعي مفتوح المصدر في مشهد لامركزي وعولمي بشكل متزايد.