Bonanza in Bonk: Solana's Saga Mobile Outshone بواسطة Token Giveaway
لقد تجاوزت هبة رمز BONK المقدمة من هاتف Solana's Saga المحمول سعر بيع الهاتف بشكل مذهل، مما أدى إلى زيادة الطلب وتقييم السوق، وعرض التآزر المتقلب لتكنولوجيا التشفير.
Alex
المؤلف: دينج جيان بينج، تشاو تشيسونج؛ المصدر: مجلة جامعة شينجيانغ العادية
نُشرت هذه المقالة لأول مرة في مجلة جامعة شينجيانغ العادية في عام 2025.
الملخص: مع التطور السريع للذكاء الاصطناعي التوليدي، جذب ظهور DeepSeek مفتوح المصدر الكثير من الاهتمام. تمكنت شركة DeepSeek من تحقيق تدريب منخفض التكلفة ومخرجات فعالة من خلال الاستفادة من الاختراقات في نماذج الخوارزمية، وتقطير المعرفة، وتكنولوجيا سلسلة الأفكار. إن التغيرات التكنولوجية لها تأثير مزدوج على تنظيم الذكاء الاصطناعي التوليدي: من ناحية، يخفف المصدر المفتوح لسلاسل الفكر والنماذج من معضلة "الصندوق الأسود للخوارزمية" ويسهل المراجعة التنظيمية؛ من ناحية أخرى، فإنه يجلب تحديات جديدة لحماية الخصوصية والامتثال للبيانات، وحقوق الملكية الفكرية، و"مشاكل الهلوسة" ومخاطر أمن النماذج. تظهر شعبية DeepSeek مرة أخرى أن تنظيم الذكاء الاصطناعي التوليدي يجب أن يوجه نحو المستقبل، مع حماية الخصوصية وأمن البيانات، والتوازن بين الابتكار التكنولوجي والحماية، وآليات المطالبات النموذجية وردود الفعل، وأمن النموذج باعتباره محور الإشراف، لتجنب إساءة استخدام التكنولوجيا والهجمات الخبيثة، وضمان وتعزيز التنمية الآمنة والصحية للذكاء الاصطناعي التوليدي.
الكلمات الرئيسية: DeepSeek؛ الذكاء الاصطناعي التوليدي؛ الامتثال القانوني؛ الإشراف؛ الذكاء الاصطناعي
ملف تعريف المؤلف: دينج جيان بينج، أستاذ ومشرف على الدكتوراه في كلية الحقوق بجامعة المركزية للمالية والاقتصاد، ومدير مركز أبحاث سيادة القانون في مجال التكنولوجيا المالية؛ تشاو تشيسونج، طالب ماجستير في كلية الحقوق بجامعة المركزية للمالية والاقتصاد.
ملخص الآراء
الميزات التقنية والقضايا القانونية لـ DeepSeek: تكنولوجيا تقطير المعرفة وقضايا الامتثال؛ نموذج سلسلة التفكير وقضايا الامتثال؛ المزايا التنظيمية والقضايا الجديدة للنماذج مفتوحة المصدر.
التأثير الإيجابي لـ DeepSeek على المعضلة التنظيمية الحالية: من ناحية أخرى، يمكن أن تساعد التقنيات مثل نموذج المصدر المفتوح وسلسلة التفكير في تخفيف معضلة "الصندوق الأسود للخوارزمية". من ناحية أخرى، تعد النماذج الكبيرة مثل DeepSeek مفتوحة المصدر بشكل نشط، وهو ما لا يعزز ثقة الناس فحسب، بل يوفر أيضًا ظروف مراجعة أكثر ملاءمة وشفافية للجهات التنظيمية.
البحث العميق: التحديات الجديدة الناجمة عن التغيرات التكنولوجية: التحديات المتزايدة في حماية الخصوصية والامتثال للبيانات؛ النزاعات حول حقوق الملكية الفكرية؛ تفاقم "مشاكل الهلوسة"؛ وقضايا أمن النماذج.
إن إحدى الصعوبات التي نواجهها في تنظيم الذكاء الاصطناعي التوليدي هي أن التدابير التنظيمية يجب أن تتكيف باستمرار مع التطور السريع للتكنولوجيا. يعتقد بعض العلماء أن حماية الخصوصية، وأمن النماذج، والمعايير الفنية، وبروتوكولات المصدر المفتوح، وما إلى ذلك، أكثر ملاءمة للتنظيم من خلال "القوانين الناعمة" مثل التجارب التعاونية المرنة والمتنوعة، ومعايير الصناعة القابلة للتطبيق عبر الحدود. يجب على السلطات التنظيمية إجراء تعاون مكثف مع الشركات أو المنظمات الصناعية أو التحالفات المؤسسية، وتعزيز الجمع بين "القانون الناعم" و"القانون الصارم" من خلال آليات مختلفة، وتنظيم تطوير الذكاء الاصطناعي التوليدي.
منذ إطلاق ChatGPT بواسطة OpenAI، وهي شركة أمريكية للبحث والتطوير في مجال الذكاء الاصطناعي، حقق الذكاء الاصطناعي المولد للمحتوى انتشارًا رأسيًا من نمط واحد إلى تمكين الصناعة متعددة الأنماط، والتكنولوجيا سريعة التطور تغير العالم باستمرار. في نهاية ديسمبر 2024، أصدرت شركة البحث والتطوير الصينية للذكاء الاصطناعي DeepSeek نموذج DeepSeek-V3 مفتوح المصدر، والذي يضاهي أداؤه أفضل النماذج المغلقة المصدر الحالية؛ في يناير 2025، أصدرت الشركة نموذج الاستدلال DeepSeek-R1، الذي وصل إلى أو تجاوز OpenAI o في العديد من الاختبارات. على عكس النماذج الأخرى التي تعتمد على البيانات الضخمة وقوة الحوسبة، اجتذبت DeepSeek اهتمامًا واسع النطاق بنموذج خوارزمية تحسين السياسة النسبية للمجموعة (GRPO)، وتقطير المعرفة وتكنولوجيا Long-CoT. يعتقد بعض العلماء أن DeepSeek قد حقق أداءً يضاهي أفضل المنتجات بتكلفة تدريب منخفضة تصل إلى 1/10، مما وضع معايير جديدة في أبعاد متعددة مثل كفاءة التفكير والتكيف مع المشهد، وتحقيق تدريب منخفض التكلفة وفعال ومخرجات النماذج، وإظهار قدرات متميزة.
يحقق DeepSeek تدريبًا فعالًا بتكلفة منخفضة، وهو ما يمثل أحدث اختراق كبير في تكنولوجيا الذكاء الاصطناعي التوليدي في الصين. وسوف يعزز ذلك من انتشار استخدام تكنولوجيا النماذج الكبيرة، ولكن بعض التقنيات تتطلب من الجهات التنظيمية التفكير فيها. في الوقت الحالي، يركز البحث الأكاديمي حول تنظيم الذكاء الاصطناعي التوليدي بشكل أساسي على جانبين: الخوارزميات والامتثال للبيانات، مع إيلاء المزيد من الاهتمام لتنظيم المعلومات الكاذبة، وتنظيم المخاطر الأخلاقية، ومسؤولية الضرر والإعفاء، وما إلى ذلك. تركز امتثال الخوارزمية على مراجعة الخوارزمية وتفسيرها ومساءلتها، بينما تركز امتثال البيانات على شرعية مصادر البيانات وقضايا حماية خصوصية البيانات. إن التطبيق التقني لـ DeepSeek يمكن أن يساعد في تخفيف بعض الصعوبات الحالية في تنظيم الذكاء الاصطناعي إلى حد ما. على سبيل المثال، يمكنه تحسين إمكانية شرح وشفافية مشكلة "الصندوق الأسود للخوارزمية". يمكن أن يسهل المصدر المفتوح للنموذج المراجعة التنظيمية إلى حد ما، وما إلى ذلك. ومع ذلك، تفرض بعض الوسائل التقنية أيضًا تحديات جديدة على الإشراف، بما في ذلك المخاطر المتزايدة في حماية الخصوصية والامتثال للبيانات، والنزاعات المتعلقة بالملكية الفكرية الناجمة عن تكنولوجيا التقطير، و"مشاكل الهلوسة" المتفاقمة والمخاطر المحتملة في أمن النماذج، وما إلى ذلك. يعتقد بعض العلماء أننا وصلنا إلى نقطة تحول تاريخية: فالعمليات التاريخية الكبرى أصبحت الآن مدفوعة جزئيا بقرارات اتخذتها ذكاءات غير بشرية. وهذا ما يجعل قابلية شبكات الكمبيوتر للخطأ أمرا خطيرا للغاية. وعندما تصبح أجهزة الكمبيوتر هي محرك التاريخ، فإن هذه الأخطاء يمكن أن تكون كارثية. لذلك، مع الاهتمام بالميزات التقنية لـ DeepSeek، يجب علينا أيضًا التركيز على استكشاف الاتجاهات التنظيمية في تطوير التقنيات المتطورة. من أجل تلبية احتياجات المنافسة في السوق والتطور التكنولوجي، تعمل الشركات عادةً على تحسين تفسيرات الخوارزمية بشكل تلقائي وتسعى إلى شفافية الخوارزمية لتعزيز القدرة التنافسية للمنتج وثقة المستخدم. ويجب أن يتركز الإشراف على المجالات التي تفتقر فيها الشركات إلى الدافع الذاتي ولكنها تنطوي على المصالح العامة والسلامة، لتجنب الإضرار بحقوق ومصالح الفئات الضعيفة ومنع إساءة استخدام التكنولوجيا والهجمات الخبيثة.
تتبنى DeepSeek سلسلة من الابتكارات التكنولوجية مثل آلية الانتباه الكامن متعدد الرؤوس. تنتمي بعض هذه التقنيات إلى المنطق الخوارزمي ولا تؤثر على المتطلبات التنظيمية. من منظور تنظيمي، نولي اهتمامًا للميزات التقنية والقضايا القانونية لـ DeepSeek.
(أ) تكنولوجيا تقطير المعرفة وقضايا الامتثال
تعد تكنولوجيا تقطير المعرفة إحدى الوسائل المهمة لشركة DeepSeek لتحسين أداء النموذج وتحسين كفاءة استخدام الموارد. النهج الأساسي هو تدريب نموذج أصغر ("نموذج الطالب") لتقليد الناتج أو الميزات الوسيطة لنموذج أكبر ("نموذج المعلم") لتحقيق نشر فعال بتكلفة منخفضة. وهذا يعني استخدام نموذج صغير لمحاكاة نتائج التنبؤ الخاصة بنموذج كبير. ولا تعد نتيجة التنبؤ هذه إجابة بسيطة، بل هي توزيع احتمالي متوقع (يشبه "العلامة الناعمة")، والذي يمكن أن يحتوي على مزيد من معلومات البيانات، وبالتالي يؤدي النموذج الصغير أداءً أفضل في الاختبار. من منظور فني، على الرغم من أن تقنية التقطير الحالية قد أظهرت نتائج فنية جيدة، إلا أن طريقة استخدام نتائج التنبؤ مباشرة للتقطير ليست مثالية وليست جيدة مثل استخدام ميزات الطبقة الوسيطة للنموذج للتقطير. بالإضافة إلى ذلك، فإن صيغة فقدان تقطير المعرفة بها عيوب معينة. يخلط النموذج الصغير بعض البيانات التي يجب تحليلها بشكل منفصل معًا للتحليل، مما يؤثر على تأثير نقل المعرفة.
من منظور تنظيمي، تتركز النزاعات القانونية الحالية المتعلقة بتكنولوجيا التقطير بشكل رئيسي في مجالات الامتثال للبيانات وحقوق الملكية الفكرية. إذا تم تدريب "نموذج المعلم" ببيانات خاطئة أو غير دقيقة، ففي عملية نقل المعرفة، سيتم نقل مشكلة البيانات الخاصة بـ "نموذج المعلم" وتوسيعها إلى "نموذج الطالب"، مما قد يؤدي إلى توسيع "مشكلة الهلوسة" بشكل أكبر. لا توجد لوائح قانونية واضحة بشأن مصادر البيانات وطرق المعالجة وحماية خصوصية البيانات وما إلى ذلك في تطبيق تكنولوجيا التقطير، كما يوجد نقص في التعريف القانوني الواضح للمسؤولية عن تضخيم عيوب البيانات أثناء عملية النقل. على الرغم من أن تكنولوجيا التقطير ناضجة نسبيًا، إلا أن الحدود بين استخدام النموذج والانتهاك غامضة نسبيًا. لا تعد تقنية التقطير مجرد نسخ بسيط للكود، بل هي استخدام عميق المستوى. وعلى الرغم من أن نموذج المصدر المفتوح يسمح باستخدامها، إلا أن ترخيص المصدر المفتوح أو مواصفات الصناعة لا تحدد بوضوح القيود المحددة على تطبيق تقنية التقطير. وهناك نقص في اللوائح التفصيلية للنماذج المغلقة المصدر، مما يجعل من الصعب تحديد إلى أي مدى يعتبر سلوك التقطير استخدامًا معقولًا وإلى أي مدى يشكل انتهاكًا، مما يؤدي إلى فجوات في اللوائح التنظيمية.
(II) نموذج سلسلة التفكير وقضايا الامتثال
يعد نموذج سلسلة التفكير لتقنية DeepSeek تكرارًا تقنيًا لنموذج مطالبة التعليمات. وقد تعمل نتائجه الجيدة تدريجيًا على تعزيز تطوير النماذج الكبيرة من نوع التعليمات إلى نوع التفكير. تشير تقنية سلسلة التفكير إلى تحسين قدرة التفكير في النماذج الكبيرة، وقابلية تفسير عمليات التفكير، وإمكانية التحكم في النماذج، ومرونة المخرجات من خلال أنماط التفكير المتسلسلة، وهي مناسبة للمهام شديدة التعقيد. الفرق بينه وبين نموذج التعليمات الموجهة الكبير هو أن الأول يعتمد بشكل أساسي على معلومات التعليمات الموجهة مسبقًا لتوجيه النموذج لتوليد المخرجات، ولكنه يعاني من بعض القيود عند التعامل مع متطلبات المهام المعقدة. يحاكي وضع سلسلة التفكير عملية التفكير البشري ويبني سلسلة تفكير متماسكة منطقيًا، مما يتيح للنموذج التفكير والتحليل خطوة بخطوة وعرض عملية التفكير. فهو لا يحسن القدرة على فهم السياق فحسب، بل يمكنه أيضًا التقاط المعلومات السابقة بشكل فعال عند معالجة النصوص الطويلة أو المحادثات متعددة الجولات، والحفاظ على التماسك المنطقي، وتوليد إجابات أكثر دقة ومعقولية.
من منظور تنظيمي، وبسبب "الصندوق الأسود للخوارزمية" للنموذج الكبير الذي يتم توجيهه بالتعليمات، فإن النموذج يخرج النتيجة النهائية فقط، مما يفرض خطر تسرب البيانات والخصوصية في نتائج مخرجاته. تعرض سلسلة الأفكار خطوات وسيطة في عملية التفكير، والتي قد تحتوي على أجزاء خاصة في بيانات التدريب، وتنتهك الخصوصية الشخصية أو الحقوق الأخرى، وتؤدي إلى تحديات الامتثال. علاوة على ذلك، قد تؤدي سلاسل الأفكار إلى تفاقم "مشكلة الهلوسة". يقدم نموذج التعليمات الكبيرة النتائج ببساطة، ويمكن للمستخدمين قبول عدم دقة النتائج إلى حد ما. ومع ذلك، بما أن سلسلة الفكر تتمتع بخصائص "التفكير البشري"، فإنها تسمح للمستخدمين برؤية عملية التفكير بوضوح، والتي قد تمرر منطق التفكير غير الصحيح أو المحتوى دون أساس واقعي طبقة بعد طبقة، مما يتسبب في انحراف النتيجة النهائية عن الحقائق. قد تؤدي خطوات التفكير غير الصحيحة إلى استخلاص النموذج لاستنتاجات خاطئة. وسوف يثق المستخدمون بالنتائج الخاطئة أكثر لأنهم يرون عملية التفكير، مما قد يؤدي إلى عواقب مثل اتخاذ قرارات مضللة، والتسبب في خسائر اقتصادية، وانتهاك حقوق الآخرين. ومن ثم، فمن الضروري أن نوضح بشكل أكبر التدابير المضادة لمشكلة الهلوسة في النماذج الكبيرة والعمل بشكل فعال على تخفيف تأثير مشكلة الهلوسة.
(ثالثًا) المزايا التنظيمية والقضايا الجديدة لنماذج المصدر المفتوح
باعتبارها نموذجًا مفتوح المصدر، فتحت DeepSeek كودها وبياناتها وخوارزمياتها بالكامل. يعتقد بعض العلماء أن نماذج المصدر المفتوح قد تقود اتجاه تطوير النماذج الكبيرة وتجلب فرص عمل جديدة. من منظور الثقة الاجتماعية، يمكن للمستخدمين والمطورين إجراء تحليل فني لنماذج المصدر المفتوح، والتحقق من تأثيراتها وقدراتها، وتعظيم القدرة على تطوير النماذج، وتمكين الجمهور من الحصول على فهم واضح لقدرات النموذج وتأثيراته الفنية؛ من حيث الابتكار التكنولوجي، حفزت نماذج المصدر المفتوح إبداع المطورين بشكل كبير. يمكن للمطورين والمستخدمين الأفراد تنفيذ التطوير الثانوي بشكل مستمر حول نموذج المصدر المفتوح DeepSeek، واستيعاب أو تحسين تكنولوجيا النموذج وخطط التحسين؛ في الوقت نفسه، يمكن لميزة المصدر المفتوح تعزيز شفافية وثقة التكنولوجيا. يمكن للموظفين الفنيين تحليل منطق تشغيل النموذج بعمق، ثم اكتشاف نقاط الضعف المحتملة وإصلاحها في الوقت المناسب. بالمقارنة مع نماذج المصدر المغلق مثل ChatGPT، يمكن للهيئات التنظيمية تحقيق الرقابة الشاملة على نماذج المصدر المفتوح والإشراف على التشغيل الآمن والموثوق به لهذه النماذج. ومن منظور تنظيمي، ورغم أن نموذج المصدر المفتوح عزز التقدم التكنولوجي، فإنه جلب أيضاً قضايا تنظيمية جديدة. على الرغم من أن اتفاقيات المصدر المفتوح تحتوي على قواعد تنظم استخدام النماذج، إلا أن المستخدمين الضارين قد ينتهكون الاتفاقيات ويستخدمون النماذج لأغراض تجارية أو تطوير تنافسي أو إعادة توزيع النماذج. من حيث المسؤولية الأمنية، حتى لو أعلن مطورو النماذج مثل DeepSeek في اتفاقية المستخدم أنهم غير مسؤولين عن عواقب استخدامها، فإن هذا التصريح الأحادي الجانب لا يعني أنه يمكن إعفاؤهم من جميع المسؤوليات القانونية (يتحمل مطورو ومقدمو خدمات الذكاء الاصطناعي التوليدي مسؤولية الحفاظ على أمنه الأساسي). إذا كان النموذج نفسه يعاني من ثغرات أمنية وتم استغلاله بشكل خبيث للتسبب في ضرر، فلا يمكن إعفاء المطور تمامًا من المسؤولية. 2. تأثير DeepSeek والتحديات التي تواجه الإشراف
من منظور التطور التكنولوجي، أدى تطبيق التقنيات المرتبطة بـ DeepSeek إلى تخفيف الصعوبات التنظيمية مع جلب تحديات جديدة أيضًا.
(أ) التأثير الإيجابي على المعضلة التنظيمية الحالية
من ناحية أخرى، يمكن لتقنيات مثل نموذج المصدر المفتوح وسلسلة التفكير أن تساعد في تخفيف معضلة "الصندوق الأسود للخوارزمية". تعتمد اللوائح مثل "لوائح إدارة توصيات خوارزمية خدمة معلومات الإنترنت" و"تدابير الخدمة المؤقتة للذكاء الاصطناعي التوليدي" في الغالب على قواعد المناصرة بدلاً من القواعد الإلزامية لشفافية الخوارزمية وإمكانية تفسيرها. إن مشكلة "الصندوق الأسود للخوارزمية" هي صعوبة في تنظيم الذكاء الاصطناعي التوليدي. إن جوهر "الصندوق الأسود للخوارزميات" هو عدم الكشف والشرح الكافيين لخوارزميات الذكاء الاصطناعي التوليدي. وتحت تأثير التحيز الخوارزمي، سوف تنشأ حتما أزمة ثقة خوارزمية بين الجمهور والذكاء الاصطناعي التوليدي. ومع ذلك، فإن بنية نموذج الخوارزمية معقدة، وعملية اتخاذ القرار فيها يصعب على البشر فهمها وشرحها. ومن الصعب على المستخدمين والجهات التنظيمية وحتى المطورين تحليل الخوارزمية والحكم عليها على أساس العقلانية. لذلك، تلتزم الأفكار التنظيمية المبكرة بتحسين شفافية الخوارزمية. وقد اقترح بعض العلماء أساليب منهجية مثل "تفسير الإسناد" و"التفسير المضاد للوقائع"، في حين اقترح بعض العلماء تدابير تنظيمية مثل تقارير الشفافية وكشف الخوارزميات، فضلاً عن متطلبات الشفافية القابلة للملاحظة والتحليل والمحاكاة. ومع ذلك، يعتقد بعض العلماء أن شفافية الخوارزميات ليس لها تأثير كبير. وحتى لو كانت ممكنة من الناحية الفنية، فقد لا تحقق النتائج المتوقعة. ولذلك، فإن القيود التقنية، والنزاعات النظرية، ومعايير المناصرة، وما إلى ذلك، تسببت منذ فترة طويلة في مواجهة الجهات التنظيمية لصعوبات كبيرة في تقييم سلامة النماذج وموثوقيتها ونزاهتها.
يُظهِر تطوير DeepSeek أنه من أجل تعزيز قدرات فهم النموذج وتحسين ثقة المستخدم، تتمتع الشركات بدرجة معينة من الدافع الذاتي لاستكمال المتطلبات الفنية لشرح الخوارزمية ذات الصلة وشفافية الخوارزمية. ورغم أن هذا قد يكون لأغراض تجارية، فإنه يوفر أيضًا مسارًا للتخفيف من مشكلة "الصندوق الأسود للخوارزمية"، وبالتالي المساعدة في تحسين التكنولوجيا التنظيمية. نموذج سلسلة الأفكار الذي يستخدمه DeepSeek يجعل عملية اتخاذ القرار النموذجية أكثر شفافية من خلال محاكاة عملية التفكير البشري. عندما يقوم النموذج بمعالجة المهام، فإنه يفكر خطوة بخطوة بناءً على سلسلة التفكير، مما يجعل الأساس والعلاقة المنطقية لكل خطوة من خطوات التفكير واضحة نسبيًا. في الوقت نفسه، تعرض سلسلة التفكير وتسجل الخطوات الوسيطة في عملية التفكير النموذجي بالكامل، مما يوفر للمستخدمين والمنظمين معلومات أكثر قابلية للملاحظة والتحليل، مما يساعد المنظمين والمستخدمين على اكتساب فهم متعمق لعملية النموذج من بيانات الإدخال إلى اتخاذ القرار النهائي، وتوفير أساس لتقييم عقلانية وعدالة قرارات النموذج. من ناحية أخرى، فإن النماذج الكبيرة التي يمثلها DeepSeek هي نماذج مفتوحة المصدر بشكل نشط، وهو ما لا يعزز ثقة الناس فحسب، بل يوفر أيضًا ظروف مراجعة أكثر ملاءمة وشفافية للجهات التنظيمية. إن المنافسة بين نماذج الذكاء الاصطناعي التوليدي مفتوحة المصدر ومغلقة المصدر مستمرة منذ فترة طويلة. وقد اختارت شركات التكنولوجيا العملاقة مثل OpenAI نماذج مغلقة المصدر بقدراتها القوية في مجال البحث والتطوير ومزايا الموارد من أجل حماية أسرار التكنولوجيا للشركات والمصالح التجارية. على الرغم من أن بعض النماذج مفتوحة المصدر، إلا أن أداءها الفني لا يستطيع أن يضاهي نماذج OpenAI المغلقة المصدر. قد يشير التقدم الجديد لتقنية DeepSeek إلى أن نموذج المصدر المفتوح أصبح اتجاهًا جديدًا لا يمكن تجاهله في تطوير الذكاء الاصطناعي التوليدي، وهذا الشكل الجديد له تأثيرات إيجابية معينة على الإشراف. في بيئة نموذج المصدر المغلق، تكون مراجعة الجهات التنظيمية للنماذج الكبيرة مقيدة بعدم التماثل في المعلومات والأسرار التجارية. فهم غير قادرين على الحصول على كود مصدر النموذج وتفاصيل الخوارزمية الداخلية. ولا يمكن للجهات التنظيمية تقييم أداء النموذج والامتثال إلا من خلال اختبارات المراقبة الخارجية للمحتوى الناتج. وقد أظهرت اختبارات النماذج ذات الصلة وجود عقبات واضحة أمام تتبع مصدر المشاكل في النماذج ذات المصدر المغلق. بالمقارنة مع النماذج المغلقة المصدر، تتميز النماذج مفتوحة المصدر بالانفتاح، وقابلية التكيف مع السيناريوهات، وسهولة الاستخدام الاحترافية، والشفافية العالية، والتوافق، مما يسهل إلى حد كبير الابتكار التكنولوجي والمراجعة التنظيمية. يتضمن النموذج مفتوح المصدر بنية النموذج، وبيانات التدريب، ومعلمات النموذج، وما إلى ذلك. من حيث بنية النموذج، يمكن اختبار الخوارزمية بشكل شامل لتقييم عقلانيتها ونزاهتها وأمانها. من حيث بيانات التدريب، يمكنها الكشف بشكل مباشر عما إذا كانت عملية جمع البيانات وتنظيفها ووضع العلامات عليها واستخدامها تتوافق مع المعايير القانونية والفنية، وتجنب مخاطر إساءة استخدام البيانات أو انتهاك الخصوصية في الوقت المناسب. من حيث معلمات النموذج، يمكن مراجعة كود المصدر المفتوح بشكل مباشر لفهم تدفق معالجة بيانات النموذج وتفاصيل تنفيذ الخوارزمية وعملية تدريب النموذج بالتفصيل. في الوقت نفسه، تساعد نماذج المصدر المفتوح على الإشراف المستمر من قبل الهيئات التنظيمية. وبالمقارنة مع مراجعة الخوارزميات وتقديمها، يمكن للهيئات التنظيمية الحصول على أحدث ديناميكيات النموذج في الوقت المناسب، وتتبع تطوير النموذج، وضمان تلبية النموذج للمتطلبات التنظيمية طوال دورة حياته. والأمر الأكثر أهمية هو أن نماذج المصدر المفتوح قادرة على تشجيع المستخدمين والأقران على المشاركة في الإشراف على الخوارزميات. وقد يكتشف مطورو التكنولوجيا أو المنافسون مشاكل محتملة ويبلغون عنها للهيئات التنظيمية عند استخدام نماذج المصدر المفتوح أو الإشراف عليها، وهو ما من شأنه أن يساعد الهيئات التنظيمية على اكتشاف المشاكل وحلها في الوقت المناسب، وتعزيز الامتثال لنماذج المصدر المفتوح، والحد من المخاطر القانونية والفنية.
(II) التحديات الجديدة التي جلبتها التغيرات التكنولوجية لشركة DeepSeek
1. التحديات المتزايدة في حماية الخصوصية والامتثال للبيانات
يتضمن امتثال البيانات للذكاء الاصطناعي التوليدي بشكل أساسي مصادر البيانات ومعالجة البيانات وتخزين البيانات ونقلها. لقد حققت سلسلة الأفكار وتكنولوجيا تقطير المعرفة الخاصة بشركة DeepSeek اختراقات في تحسين أداء النموذج، ولكنها أدت أيضًا إلى تفاقم تحديات حماية الخصوصية والامتثال للبيانات.
من حيث مصادر البيانات، عندما ظهر الذكاء الاصطناعي التوليدي لأول مرة، أشار بعض الباحثين إلى أن جودة البيانات ومصدرها من العوامل المهمة التي تؤثر على تطوير الذكاء الاصطناعي التوليدي، وقد يواجه الذكاء الاصطناعي التوليدي حالة نفاد مجموعة التدريب. كما ذكرنا أعلاه، فإن تقنية التقطير التي تتبناها DeepSeek هي في الأساس نقل المعرفة من "نموذج المعلم" إلى "نموذج الطالب". تقلل عملية التقطير من تكلفة جمع البيانات والتعليق عليها، مما يحسن جودة البيانات بشكل كبير مع تقليل تكاليف التدريب. ومع ذلك، فإنها تواجه أيضًا خطرين يتعلقان بالامتثال: أولاً، إذا كانت هناك مشكلات قانونية مع بيانات التدريب الخاصة بـ "نموذج المعلم"، فسيتأثر "نموذج الطالب" أيضًا بشكل غير مباشر، مما يجعل من الصعب مراجعة حماية الخصوصية وشرعية مصادر البيانات؛ ثانيًا، قد تنطوي هذه الطريقة على نزاعات حول الملكية الفكرية.
فيما يتعلق بمعالجة البيانات، يمكن لعملية تقطير المعرفة نقل المعرفة بكفاءة من النماذج الكبيرة إلى النماذج الصغيرة. ومن أجل تمكين "نموذج الطالب" من تعلم معرفة "نموذج المعلم" بشكل أفضل، فقد يقوم ببعض عمليات استخراج الميزات وتحويلها على البيانات. وقد تزيد معالجة البيانات الضخمة من خطر إعادة تحديد هوية البيانات غير الحساسة، وبالتالي زيادة خطر تسرب خصوصية المستخدم. في الوقت نفسه، تتضمن تقنية سلسلة التفكير التعدين العميق وتحليل البيانات في عملية التفكير. لم تعد عملية التفكير هذه في "صندوق أسود"، بل يتم عرضها وحفظها في السجل. عملية التفكير هي عملية معالجة معلومات البيانات. على سبيل المثال، عندما يُطلب من DeepSeek تقييم شخصية عامة، فإنه يقوم بفحص عناوين URL المختلفة في سلسلة أفكاره، وقد يحتوي بعضها على معلومات كاذبة غير مؤكدة أو مثبتة. وبالمثل، عندما يطلب المستخدم حظر المعلومات السلبية، ستظل سلسلة التفكير تعرض المحتوى ذي الصلة بالمعلومات السلبية أثناء عملية التفكير. ومن هذا يتبين أن زيادة التعرض للبيانات من شأنها أن تزيد من مخاطر الامتثال للبيانات.
في عملية تخزين البيانات ونقلها، يعتمد الذكاء الاصطناعي التوليدي على كمية كبيرة من البيانات، وعادة ما يتم تخزين بياناته على خوادم في مواقع جغرافية متعددة ومختلفة. وتشكل كيفية ضمان أمن وسلامة هذه البيانات تحديًا كبيرًا يواجهه. وفقًا لسياسة الخصوصية الخاصة بشركة DeepSeek، يتم تخزين البيانات الشخصية على خوادم DeepSeek في الصين، ولكن النماذج مفتوحة المصدر يمكنها الكشف عن البيانات بسهولة. اكتشف بعض المستخدمين أن قاعدة بيانات ClickHouse المتاحة للعامة من DeepSeek تسمح للزوار بالتحكم الكامل في عمليات قاعدة البيانات والوصول إلى البيانات الداخلية بما في ذلك أكثر من مليون سطر من تدفقات السجلات، بما في ذلك سجلات الدردشة والمفاتيح وتفاصيل الواجهة الخلفية وغيرها من المعلومات الحساسة للغاية. على الرغم من أن DeepSeek قام بإصلاح المشكلة على الفور، إلا أن الخطر لا يزال يحتاج إلى الاهتمام. عندما يتعلق الأمر بقضايا مشاركة البيانات والتدفق عبر الحدود، فإن الذكاء الاصطناعي التوليدي يتطلب منظورًا أكثر دولية، ولكن قوانين وأنظمة حماية البيانات تختلف بين البلدان والمناطق. في السنوات الأخيرة، حظيت الحماية القانونية للمعلومات الشخصية باهتمام كبير من مختلف البلدان. على سبيل المثال، يفرض الاتحاد الأوروبي متطلبات صارمة نسبيًا على المعلومات الشخصية والبيانات الأخرى. ويضع اللائحة العامة لحماية البيانات (GDPR) شروطًا صارمة للوصول إلى البيانات وتخزينها وتعديلها وحذفها ونقل البيانات عبر الحدود. وعلى الرغم من وجود اختلافات بين بلدان العالم بين "التدفق الحر" و"تنظيم البيانات عبر الحدود" عبر الحدود، فإن أمن البيانات يمثل مبدأ تقييديا مهما للبيانات عبر الحدود. وبالتالي، يمكن لمؤسسات الذكاء الاصطناعي التوليدية في بلدي تعزيز قدرتها التنافسية على نطاق عالمي من خلال تحسين معايير الامتثال للبيانات بشكل أكبر. 2. النزاعات حول حقوق الملكية الفكرية
على الرغم من أن تكنولوجيا تقطير المعرفة تحقق تدريبًا منخفض التكلفة وفعالًا، إلا أنها قد تؤدي أيضًا إلى سلسلة من النزاعات حول الملكية الفكرية. إن جوهر عملية تقطير المعرفة هو الاستفادة من تأثير التدريب "لنموذج المعلم". يعتقد بعض الناس أن استخدام تكنولوجيا التقطير لبناء منتجات نموذجية كبيرة متنافسة بشكل مباشر يعد انتهاكًا لشروط الخدمة؛ ويعتقد آخرون أن استخدام مخرجات النماذج الكبيرة المتقدمة للتطوير الثانوي هي ممارسة صناعية وليست مثيرة للجدل. في عملية تقطير النموذج، فإن جوهرها هو استخدام نتائج تدريب "نموذج المعلم" لإدخال المعرفة والاستفادة بكفاءة من "نموذج الطالب". من الناحية الفنية، من الصعب تحديد الحدود بوضوح بين استخدام المعرفة والانتهاك في عملية تقطير النموذج. يتعلم "نموذج الطالب" معرفة "نموذج المعلم" وسيكون له حتما أوجه تشابه مع "نموذج المعلم" إلى حد ما. ومع ذلك، فإن المدى الذي يتجاوز فيه هذا التشابه نطاق الاستخدام المعقول ويشكل انتهاكًا يتطلب كشفًا أكثر وضوحًا وتحديد المعايير على المستوى الفني. وفي الوقت نفسه، تظهر النماذج المعمارية والخوارزميات المختلفة تأثيرات مختلفة في عملية التقطير، مما يزيد من تعقيد المعايير الفنية. على الرغم من أن منصات الذكاء الاصطناعي التوليدي الرئيسية قد اعتمدت نماذج مفتوحة المصدر أو نماذج استدعاء API (واجهة برمجة التطبيقات) لفتح منصات المشاركة للأغراض التجارية أو الابتكار التكنولوجي، سواء كانت نماذج مفتوحة المصدر أو نماذج استدعاء API، فإن الاستخدام والنسخ والتعديل المسموح به للمستخدمين يجب أن يخضع لقيود معينة، أو يجب صياغة اتفاقية ترخيص أو لوائح ومواصفات ذات صلة. إذا استخدم نظام الذكاء الاصطناعي التوليدي نماذج شركات أخرى كـ "نموذج المعلم" دون إذن أثناء عملية التقطير، أو اعتمد بشكل مفرط على التكنولوجيا الفريدة لـ "نموذج المعلم" أثناء استخدام المعرفة والتعلم ويفتقر إلى الأصالة، فقد يتسبب ذلك في انتهاك الملكية الفكرية.
من منظور قانوني، يعاني النظام القانوني الحالي للملكية الفكرية من تأخر معين في التعامل مع النزاعات الناجمة عن تقطير النماذج. تحمي قوانين الملكية الفكرية التقليدية بشكل أساسي الإنجازات المبتكرة ذات المحتوى المحدد الواضح نسبيًا. أما بالنسبة لنماذج الذكاء الاصطناعي التوليدي، والتي تتسم بالغموض والتعقيد الشديد والتطور التكنولوجي السريع، فإن التعريف القانوني ونطاق الحماية غير واضحين. هناك نقص في المعايير التنظيمية الواضحة للنزاعات ذات الصلة داخل الصناعة، والاتفاقيات القائمة في الغالب تتخذ موقفا مراوغاً. على سبيل المثال، تنص GPL (الرخصة العامة العامة) على ما يلي: "إذا رفع موزع برامج دعوى انتهاك براءة اختراع ضد آخرين، متهماً الطرف الآخر بانتهاك براءات اختراعه باستخدام البرنامج، فإن GPLv3 سينهي تلقائيًا جميع تراخيص براءات الاختراع الممنوحة للطرف في الدعوى". إن جوهر حقوق الملكية الفكرية هو إيجاد توازن بين حماية التكنولوجيا والحوافز للابتكار التكنولوجي. لا تؤثر تقنية التقطير على الثقة الاجتماعية والقدرة التنافسية في السوق للنموذج الكبير الأصلي فحسب، بل تؤثر أيضًا على ابتكار وتطوير تكنولوجيا الذكاء الاصطناعي. ومع ذلك، قد تتسبب الحماية التكنولوجية الصارمة بشكل مفرط في دفع شركات الاحتكار إلى استخدام نزاعات الملكية الفكرية كوسيلة للحفاظ على موقفها الاحتكاري. 3. تفاقم "مشكلة الهلوسة"
تعتبر "مشكلة الهلوسة" في النماذج الكبيرة عيبًا متأصلًا في جميع النماذج. تشير "مشكلة الهلوسة" إلى حقيقة مفادها أن المحتوى الذي يولده النموذج يبدو دقيقًا، ولكنه في الواقع ملفق أو يفتقر إلى دعم البيانات. تؤثر "مشكلة الهلوسة" في النموذج بشكل خطير على موثوقية محتوى مخرجات النموذج، وبالتالي تؤثر على الثقة الاجتماعية. مع تطبيق تكنولوجيا تقطير نموذج DeepSeek وتكنولوجيا سلسلة الفكر، على الرغم من تحسن القدرة على التفكير المنطقي، إلا أن "مشكلة الهلوسة" أصبحت تدريجيًا أكثر بروزًا وتفاقمًا. على سبيل المثال، في الاستخدام الفعلي، وجد بعض المستخدمين أن نموذج DeepSeek الكبير ينتج ملفات وأرقام صفحات ومصطلحات مهنية زائفة ومصطنعة، وما إلى ذلك في عملية استنتاج سلسلة الأفكار والنتائج النهائية، ومحتوى تعبير النموذج وتنفيذ الاستنتاج المنطقي والتفاصيل مثالية للغاية، ومن الصعب على المستخدمين العاديين تصحيح الأخطاء بناءً على احتياطيات المعرفة لديهم. حتى إذا أشار المستخدمون إلى أخطاء محددة، فسيظل النموذج "يفبرك" المحتوى ذي الصلة.
أثناء مرحلة تدريب النموذج، تتأثر "مشكلة الهلوسة" بشكل أساسي بجودة بيانات التدريب. على سبيل المثال، تحتوي بيانات التدريب على كمية كبيرة من المعلومات غير الدقيقة وغير الكاملة، ومن المرجح أن يمتص النموذج هذه المعلومات الخاطئة أثناء عملية التعلم، ثم يخرج محتوى خاطئًا عند إنشاء المحتوى. وكما ذكرنا آنفًا، فإن نقل المعرفة من خلال تقنية التقطير من الممكن أن يحسن جودة البيانات مع تضخيم المشكلات الموجودة في البيانات. فالبيانات التي يتم تدريبها باستخدام تقنية التقطير قد تكون معيبة أو خاطئة، وهو ما قد يؤدي بعد الاستخدام المتكرر إلى نتائج متطرفة في الناتج النهائي ــ فالبيانات عالية الجودة تقدم محتوى دقيقًا وصارمًا، في حين أن البيانات المعيبة قد تؤدي إلى تضخيم "مشكلات الوهم". في الوقت نفسه، فإن التأثير السلبي لتكنولوجيا سلسلة العقل التي تعمل على تحسين قدرة النموذج على التفكير هو أنها تجعل المستخدمين العاديين "يؤمنون" أكثر بمخرجاتها. سلسلة التفكير هي عملية تفكير دقيقة تعتمد على النموذج، والتي تعالج تدريجيًا البيانات التي قد تكون متحيزة أو غير كاملة أثناء عملية التفكير. وكلما كانت خطوات التفكير أكثر تعقيدًا، كلما زاد احتمال تقديم معلومات خاطئة. عند التعامل مع المشاكل في بعض المجالات المهنية، قد يولد النموذج استنتاجات خاطئة بسبب عدم وجود بيانات دقيقة بما فيه الكفاية أو معلومات غير دقيقة تم التقاطها. إن تفاقم "مشكلة الهلوسة" في DeepSeek يذكرنا بأن الذكاء الاصطناعي التوليدي يتمتع بقوة قيادة ذاتية معينة، والتي يمكن أن تعمل على تحسين قابلية التفسير وشفافية الخوارزمية، ولكن "مشكلة الهلوسة" الخاصة به قد تتضخم في وقت واحد مع تعزيز قدرات النموذج. على الرغم من أن بعض العلماء اقترحوا أنه من الممكن تحسين دقة الذكاء الاصطناعي من خلال إنشاء قاعدة بيانات خاصة "خارجية" دقيقة RAG (استرجاع التوليد المعزز)، إلا أن هذه الطريقة ستجلب حمولة ضخمة من البيانات وهي أكثر ملاءمة لتصميم نموذج مخصص بدلاً من النماذج الأساسية. ومن ثم، فمن الضروري استكشاف التدابير التنظيمية المعقولة لتشجيع الذكاء الاصطناعي التوليدي للتعامل بشكل نشط مع "مشكلة الهلوسة" ومنع المستخدمين من المعاناة من خسائر لا يمكن التنبؤ بها بسبب الثقة المفرطة في مخرجاته. 4. مشكلات أمن النموذج
بعد إصدار نموذج DeepSeek، تعرض لهجوم من عدد كبير من الهجمات الإلكترونية الخارجية، مما أثر بشكل مباشر على التسجيل والوصول والاستخدام العادي للنظام. يعد هذا الهجوم هجومًا عابرًا للحدود نادرًا وواسع النطاق منذ ظهور نماذج الذكاء الاصطناعي التوليدي. كشف هذا الهجوم عن سلسلة من مشكلات أمن الشبكات النموذجية، بما في ذلك تعقيد أساليب الهجوم والهجمات عبر الحدود وثغرات تكنولوجيا حماية أمن الشبكات وقدرات الاستجابة للطوارئ غير الكافية ومخاطر أمن البيانات ومخاطر أمن سلسلة التوريد وما إلى ذلك. لا تؤثر المشكلات المذكورة أعلاه على التشغيل العادي لـ DeepSeek فحسب، بل تذكرنا أيضًا بضرورة الاهتمام أكثر بقضايا الأمان الخاصة بالنماذج الكبيرة.
إن نماذج الذكاء الاصطناعي التوليدي الكبيرة معرضة للخطر بطبيعتها من حيث الأمان. وينسب بعض الباحثين الهجمات التي قد يتعرضون لها إلى سرقة النماذج، وإعادة بناء البيانات، واستنتاج الأعضاء، وتسميم البيانات، وحقن الكلمات الفورية، وحقن الكلمات الفورية غير المباشرة، واختطاف النماذج، وعينات الإسفنج، وما إلى ذلك. هناك عيوب جوهرية في بنية النموذج وتصميم الخوارزمية. عندما يقوم النموذج بمعالجة بيانات الإدخال، فإنه يكون أكثر حساسية للتغييرات الطفيفة في البيانات. ويمكن للمهاجمين استخدام وسائل مختلفة لاختراق دفاعات النموذج. وتتمثل الاستجابة الحالية بشكل أساسي في تعزيز متانة النموذج (قدرة النموذج أو الخوارزمية على الحفاظ على التشغيل المستقر والأداء الجيد في مواجهة العديد من أوجه عدم اليقين والتداخل والمواقف غير الطبيعية أو العوامل المعاكسة). ومع تطور النماذج الكبيرة من نماذج النشر الرأسي الأساسية إلى نماذج "الذكاء الاصطناعي +" المتكاملة مع مجالات متخصصة للغاية مثل الرعاية الصحية والتمويل والقانون، يستمر نطاق وخطورة المشكلات الأمنية في المجالات الرئيسية المذكورة أعلاه في الزيادة. في التطبيقات التجارية، على الرغم من أن الابتكار التكنولوجي يجلب الكفاءة والراحة، فإن ضمان أمن التقنيات الجديدة يشكل دائمًا الأولوية القصوى لجميع المؤسسات التجارية. إذا تم تطبيق التقنيات الجديدة على نماذج الأعمال الحالية، فيجب تقييم تدابير الأمن وحماية خصوصية البيانات الخاصة بها بشكل كامل. 3. المجالات الرئيسية لتنظيم الذكاء الاصطناعي التوليدي
إن إحدى الصعوبات في تنظيم الذكاء الاصطناعي التوليدي هي أن التدابير التنظيمية يجب أن تتكيف باستمرار مع التطور السريع للتكنولوجيا. يعتقد بعض العلماء أن حماية الخصوصية، وأمن النماذج، والمعايير الفنية، وبروتوكولات المصدر المفتوح، وما إلى ذلك، أكثر ملاءمة للتنظيم من خلال "القوانين الناعمة" مثل التجارب التعاونية المرنة والمتنوعة، ومعايير الصناعة القابلة للتطبيق عبر الحدود. يجب على السلطات التنظيمية إجراء تعاون مكثف مع الشركات أو المنظمات الصناعية أو التحالفات المؤسسية، وتعزيز الجمع بين "القانون الناعم" و"القانون الصارم" من خلال آليات مختلفة، وتنظيم تطوير الذكاء الاصطناعي التوليدي. (أ) تعزيز حماية الخصوصية والإشراف على أمن البيانات
إن تحديد نطاق استخدام البيانات الشخصية ووسائل الإغاثة بوضوح عند انتهاكها، وموازنة العلاقة بين حماية البيانات الشخصية وتنمية الاقتصاد الرقمي هي محور التكيف مع تطوير الاقتصاد الرقمي في مجتمع اليوم، وينبغي أن تكون أيضًا أحد الاتجاهات الرئيسية للإشراف على الذكاء الاصطناعي التوليدي.
أثناء مرحلة جمع البيانات، ينبغي للإشراف على الذكاء الاصطناعي التوليدي أن يضع معايير واضحة نسبيًا، ويتطلب توضيح نطاق وهدف جمع البيانات، وضمان ضرورة وشرعية جمع البيانات. عند جمع بيانات المستخدم، ينبغي اتباع مبدأ التقليل. يشير عدد كبير من حوادث تسرب البيانات إلى أن الذكاء الاصطناعي التوليدي يجب أن يعمل على تحسين آلية موافقة المستخدم لضمان حصول المستخدمين على فهم واضح لسلوكيات جمع البيانات. تنص سياسة الخصوصية الخاصة بشركة DeepSeek بوضوح على أن "محتوى الإدخال الذي تم جمعه بواسطة الخدمة ومحتوى الإخراج المقابل سيتم استخدامه لتحسين جودة خدمات DeepSeek، شريطة أن تتم معالجتها بتقنية تشفير آمنة، وإزالة هويتها بشكل صارم ولا يمكن إعادة تحديدها لأفراد محددين". وتستخدم مثل هذه البنود المتعلقة بالخصوصية على نطاق واسع في اتفاقيات الخدمة النموذجية واسعة النطاق الحالية ويبدو أنها أصبحت نموذجًا تجاريًا لـ "الخدمة في مقابل البيانات". إن تنظيم الذكاء الاصطناعي التوليدي لا يعني الحظر المطلق لهذا النموذج التجاري، ولكن ينبغي ترك الاختيار للمستخدمين.
أثناء مرحلة معالجة البيانات، يجب تصنيف البيانات وتصنيفها وإدارتها وفقًا لعوامل مثل حساسية البيانات. ويجب تبني أساليب خصوصية مختلفة لاتخاذ تدابير حماية مختلفة وقيود استخدام مختلفة لمستويات مختلفة من البيانات. في ضوء استخدام البيانات الاصطناعية الناتجة عن تقطير البيانات، ينبغي إنشاء حقوق جديدة وقواعد جديدة لمعالجة البيانات في سيناريوهات التعلم الآلي، وينبغي وضع نظام لاستخدام البيانات الاصطناعية. مع معالجة وتحليل البيانات الاصطناعية وكميات كبيرة من البيانات، يستمر خطر إعادة التعرف على بيانات الخصوصية أثناء معالجة النماذج في الارتفاع. عند استخدام كميات هائلة من البيانات، يجب على الباحثين والمطورين توحيد التقنيات المستخدمة في السلوكيات ذات الصلة في جميع جوانب دورة حياة البيانات استنادًا إلى نظام تصنيف البيانات وحماية الدرجات. من خلال تعيين كلمات حساسة لبيانات الخصوصية، واستخدام الخوارزميات وتحليل البيانات وغيرها من الوسائل لمراقبة عملية تشغيل النموذج بشكل ديناميكي وتقديم ملاحظات حولها، يمكننا استخدام الخوارزميات للاستجابة للمشاكل التي تسببها الخوارزميات، وتحديد ومعالجة بيانات الخصوصية والحساسة التي تظهر أثناء تشغيل النموذج على الفور بشكل فعال.
أثناء مراحل تخزين البيانات ونقلها، ينبغي تشجيع المطورين على اعتماد التشفير وهندسة التخزين الآمنة. يمكن تشفير البيانات الحساسة وتخزينها من خلال أنظمة مثل تصنيف البيانات لمنع السرقة أو العبث بها أثناء التخزين؛ ويمكن أيضًا استخدام بروتوكولات النقل الآمنة لضمان سرية وسلامة نقل البيانات. عندما يتعلق الأمر بتدفقات البيانات عبر الحدود، فإن الاختلافات في التطور التكنولوجي بين البلدان أدت إلى قوانين ومواقف مختلفة. وإذا كان للذكاء الاصطناعي التوليدي أن يكون قادرًا على المنافسة عالميًا، فيتعين على المطورين ومقدمي الخدمات توفير نماذج كبيرة يمكنها تلبية متطلبات البلدان المختلفة. ولذلك، تحتاج بلدي إلى مزيد من توحيد معايير نقل البيانات ومعالجتها عبر الحدود، وتكثيف واقتراح استراتيجية للبيانات تتوافق مع سيادتها وأمنها ومصالحها التنموية، وإجراء تقييمات لأمن البيانات على متلقي البيانات ومعالجيها، وتعزيز قدرات حماية أمن البيانات، وضمان أمن البيانات في بلدي.
(II) التوازن بين الابتكار التكنولوجي والحماية التكنولوجية
ستؤدي تكنولوجيا تقطير المعرفة ونموذج المصدر المفتوح إلى إثارة نزاعات الملكية الفكرية. فالاثنان لا ينفصلان من الناحية الفنية، وعادة ما يصبح موضوع تقطير المعرفة نموذجًا مفتوح المصدر. وفي عصر الإنترنت، اقترح بعض العلماء فكرة إضعاف حقوق الملكية الفكرية وتقاسم المنافع، ولكن الإضعاف المفرط لحقوق الملكية الفكرية لا يؤدي بالتأكيد إلى حماية دوافع أصحاب الحقوق لمواصلة الابتكار التكنولوجي. وردًا على نزاعات الملكية الفكرية التي تنشأ، من الضروري تنظيم تكنولوجيا التقطير وسلوك المصدر المفتوح، وتقديم استجابة معقولة لمخاطر مثل هذه النزاعات، وبالتالي حل الصراع بين الابتكار التكنولوجي والحماية التكنولوجية.
أولاً، يجب علينا تحديد طبيعة السلوك بدقة والتمييز بين ما إذا كان السلوك المحدد هو "تحسين تقني" أو "نسخ منتهك". إذا تم تدريب "نموذج الطالب" فقط من خلال نتائج إخراج "نموذج المعلم" (مثل بيانات التنبؤ)، فمن الضروري فحص ما إذا كان يتجاوز نطاق الاستخدام والحماية المسموح به للنموذج الأصلي؛ إذا كان "نموذج الطالب" يتعلم فقط المعرفة العامة والتكنولوجيا العامة لـ "نموذج المعلم" ويحسن بشكل مستقل ويبتكر نقاطًا مبتكرة رئيسية، فهذا لا يشكل انتهاكًا، وإلا فإنه يشكل انتهاكًا. بالنسبة لنموذج المصدر المفتوح، لا يمثل المصدر المفتوح تنازلاً عن الحقوق، بل هو نموذج جديد لترخيص حقوق الطبع والنشر تحت حماية الترخيص. ويجب أن تخضع طبيعة سلوكه لقيود الترخيص. وجوهره هو تصرف مطور المصدر المفتوح في الحقوق والامتثال لمعايير مجتمع المصدر المفتوح. ثانياً، ينبغي إنشاء آلية مراجعة خاصة للنماذج الكبيرة. قد تطلب السلطات التنظيمية الإفصاح عن العمليات الفنية الرئيسية لنماذج التقطير، مثل مصادر البيانات، وطرق المحاذاة، وما إلى ذلك. وفي الوقت نفسه، يمكن إلقاء عبء الإثبات على عاتق الطرف الذي يتمتع بالتفوق التكنولوجي، وقد يُطلب من الطرف المتهم بالانتهاك إثبات استقلال نموذجه. بالنسبة للنماذج مفتوحة المصدر، ينبغي أن تحل الحوكمة الرشيقة محل الإشراف القائم على "القيادة والتحكم"، وينبغي استخدام الآليات المؤسسية وتخصيص الموارد لتنظيم استخدام النماذج مع تشجيع الابتكار لتجنب إساءة الاستخدام والاستخدام الخبيث. ثالثا، ينبغي للجهات التنظيمية أن تنشئ آلية للتعاون مع مجتمع المصدر المفتوح. سواء كان النموذج مقطرًا أو مستخدمًا أو مفتوح المصدر، فإنه يعتمد إلى حد كبير على ترخيص المصدر المفتوح لمجتمع المصدر المفتوح. تعتبر تراخيص المصدر المفتوح عبارة عن عقود، ولكنها تعتمد على أنظمة الملكية الفكرية التقليدية. يمكن للهيئات التنظيمية توجيه المجتمع لإنشاء اتفاقيات الملكية الفكرية وتحديثها بشكل ديناميكي بما يتماشى مع الاتجاهات التكنولوجية الحالية من خلال المعايير الفنية والأخلاقيات العلمية والتكنولوجية ومعايير الصناعة وما إلى ذلك، وتنظيم سلوكيات المصدر المفتوح والتقطير من خلال "القوانين الناعمة" مثل معايير الانضباط الذاتي التعاونية والشاملة والمرنة والمعايير المستقلة، وتوفير قنوات لحقوق الملكية الفكرية المفتوحة، وتحديد الحد الأدنى لتطوير واستخدام التقنيات الجديدة.
ثالثًا: تحسين آلية الاستجابة والتغذية الراجعة للنموذج
على الرغم من أن الباحثين جربوا أساليب مختلفة للتخفيف من "مشكلة الهلوسة" في النماذج الكبيرة، إلا أن اختبارات DeepSeek تظهر أنه كلما كان النموذج الكبير أقوى، كلما كانت "مشكلة الهلوسة" في النموذج أكثر إقناعًا. تنص شركة DeepSeek بوضوح في اتفاقية المستخدم الخاصة بها على أن "جميع النتائج التي توفرها هذه الخدمة يتم الرد عليها بواسطة نماذج الذكاء الاصطناعي وقد تحتوي على أخطاء أو سهو. وهي للإشارة فقط ولا يجب عليك اعتبار محتوى النتائج بمثابة نصيحة مهنية". ومع ذلك، لا ينبغي أن تشكل شروط الخدمة ذات التنسيق المخفي الأساس الوحيد للإعفاء من جانب واحد. ومع تطور التكنولوجيا، يتعين على مقدمي الخدمات تحسين آليات التحذير من السلامة وردود الفعل في النموذج، وتنظيم سلوك المؤسسة نفسها مع تنبيه المستخدمين إلى المخاطر، وتوفير أساس لإسناد المسؤولية.
من منظور تنظيمي، وفي حين يتم تشجيع تحسين التكنولوجيا، ينبغي إلزام مزودي خدمات الذكاء الاصطناعي التوليدي باعتماد آليات كافية للتنبيه وردود الفعل لتجنب المخاطر. في الوقت الحاضر، على الرغم من أن واجب الرعاية لمقدمي خدمات الذكاء الاصطناعي التوليدي لا يتضمن التزامًا عامًا بمراجعة المحتوى المُولَّد، إلا أنه ينبغي أن يتضمن التزامًا بوضع علامة بارزة على المحتوى المشتبه في انتهاكه. لا ينبغي أن يظهر هذا النوع من العلامات التجارية في المصطلحات المنسقة مثل اتفاقيات الخدمة فحسب، بل يجب أيضًا عرضها بشكل بارز في الإجابات التي تتضمن مجالات مهنية مثل التمويل والرعاية الطبية والقانون. وفيما يتعلق بملاحظات النموذج، ينبغي للجهات التنظيمية أن تطلب من مقدمي الخدمات إنشاء قنوات ملاحظات المستخدمين وتحسينها وجمع المشاكل والشذوذ التي يكتشفها المستخدمون عند استخدام النموذج على الفور. حاليًا، وفقًا لاتفاقية مستخدم DeepSeek، فإن قناة الملاحظات للمستخدمين الذين يكتشفون انتهاكًا أو معلومات غير قانونية أو خاطئة هي ملاحظات البريد الإلكتروني. لا يمكن لهذا أن يوفر ملاحظات مستهدفة عندما يكتشف المستخدمون استدلالًا نموذجيًا أو هلوسات ناتجة أو معلومات خاطئة أثناء استخدام نماذج معالجة اللغة الطبيعية. ينبغي أن تكون قنوات التغذية الراجعة ملائمة وفعالة ومستهدفة. وينبغي تشجيع الصناعة على تطوير عمليات موحدة وتوفير قنوات متعددة للتعليقات لتسهيل قيام المستخدمين بإرسال معلومات التعليقات. وفي الوقت نفسه، يمكن إنشاء نظام لمراقبة أداء النموذج لنشر معدل ردود الفعل ومعدل الاستجابة ومعدل معالجة "مشاكل الهلوسة" لدفع الباحثين إلى تحسين تقنياتهم. وفي التعامل مع "مشكلة الوهم"، ينبغي للسلطات التنظيمية أن تعمل على تعزيز الوظيفة الوقائية للقانون بدلاً من وظيفة العقوبة. في الوقت الحاضر، ليس من المناسب مطالبة مقدمي خدمات الذكاء الاصطناعي التوليدي بتحمل المسؤولية الكاملة عن صحة ودقة المحتوى الناتج، ولكن يجب على مقدمي خدمات الذكاء الاصطناعي التوليدي تحمل مسؤولية الكيان التشغيلي، والوفاء بالتزامات واضحة مثل إدارة المحتوى وعلامات التتبع، واتخاذ تدابير استجابة فعالة لضمان إمكانية تتبع المشكلات وتحسينها في الوقت المناسب. على سبيل المثال، يتم تسجيل أوامر نموذج الإدخال ومحتوى مخرجات النموذج والخطوات الرئيسية في عملية اتخاذ القرار، ويتم ضمان سلامة البيانات وإمكانية تتبعها من خلال طرق التخزين مثل السجلات. عندما تحدث مشاكل مع النموذج، يجب على مزودي خدمات الذكاء الاصطناعي التوليدي التأكد من قدرتهم على تحديد المشكلة بسرعة من خلال نظام التتبع، واتخاذ تدابير تحسين مستهدفة، وتحسين موثوقية النموذج.
IV. الإشراف على أمن النموذج
يُظهِر تسرب البيانات والهجوم واسع النطاق على خادم DeepSeek أن أداء أمان النموذج ليس مشكلة للشركات فحسب، بل يؤثر أيضًا على الخصوصية الشخصية للمستخدمين والمصالح الاجتماعية والأمن الوطني. لذلك، يجب أن يصبح أمان النموذج وحماية أمن البيانات وأداء مكافحة الهجوم أحد الاتجاهات الرئيسية للإشراف على الذكاء الاصطناعي التوليدي في المستقبل. ومن ناحية أخرى، ينبغي إرساء معايير السلامة النموذجية. يمكن لمعايير الحوكمة للذكاء الاصطناعي التوليدي أن تلعب دورًا مهمًا في "الاستحواذ على التشريع والإشراف، والتواصل مع الممارسات الفنية". يجب تشجيع الصناعة على صياغة معايير تقنية أمنية قابلة للتطبيق على الذكاء الاصطناعي التوليدي، بما في ذلك إزالة خصوصية البيانات، والخوارزميات التنافسية، والوصول إلى قاعدة البيانات، واكتشاف الثغرات الأمنية وإصلاحها، وما إلى ذلك، وتقييم أمان النموذج بشكل شامل، وتقديم تقارير الاختبار إلى السلطات التنظيمية. يمكن للمطورين الرجوع إلى فريق Red Adversarial Team التابع لـ OpenAI وإجراء اختبارات تنافسية مثل الاختبار الوظيفي واختبار الأداء واختبار الثغرات الأمنية وما إلى ذلك بأنفسهم، ويتم تشجيعهم على جعلها عامة. ومع ذلك، ينبغي أن تكون هذه المعايير والمتطلبات "معايير ناعمة" وليس متطلبات صارمة. في عصر التطور التكنولوجي السريع، لا ينبغي لنا أن نضع معايير أمنية صارمة للغاية من شأنها أن تزيد من تكاليف الامتثال المفرطة للشركات. وبدلاً من ذلك، يتعين علينا أن نعتبر الأخلاقيات العلمية والتكنولوجية مبادئ أساسية وإدارة المخاطر نظاماً أساسياً. من خلال آلية شهادة الأمان، يمكن منح النماذج التي تلبي معايير الأمان إذنًا إداريًا للاستخدام في مجالات مثل الطب والتمويل. وهذا لا يحسن أمان وموثوقية النموذج فحسب، بل يساعد أيضًا في توسيع مجالات تطبيق النموذج. من ناحية أخرى، ينبغي أن يكون الكشف عن أداء أمن النموذج والإنذار المبكر به وتخطيط المخاطر محور الإشراف، مما يتطلب من المطورين استخدام الوسائل التقنية مثل مراقبة البيانات لمراقبة حالة أمن البيانات لتخزين النموذج وتشغيله في الوقت الفعلي. يمكن إنشاء آلية تحذير من تسرب البيانات للاستجابة والإبلاغ في الوقت المناسب عند اكتشاف هجمات غير طبيعية أو تسرب للبيانات أو تهديدات أمنية، وبالتالي تحسين القدرة على اكتشاف مخاطر أمن البيانات والاستجابة لها. وفي الوقت نفسه، ينبغي للسلطات التنظيمية إجراء عمليات تفتيش واختبارات منتظمة، وإدخال وكالات تقييم خارجية للقضايا المهنية والفنية مثل أداء السلامة، واتخاذ التدابير الإدارية مثل تحذيرات المخاطر أو التصحيح في غضون فترة زمنية محددة للنماذج التي تنطوي على مخاطر سلامة خطيرة، وإعلان نتائج الاختبار للجمهور عند الضرورة.
لقد أثار التطبيق التقني لـ DeepSeek اهتمامًا واسع النطاق وتعلمًا في مجال البحث والتطوير في مجال الذكاء الاصطناعي التوليدي. بعد إصدار DeepSeek، أصدر الفريق نموذجًا جديدًا بمؤشرات فنية مماثلة لـ DeepSeek R1، ولكن بتكلفة تدريب أقل من 50 دولارًا أمريكيًا. وفي حين أدى التطور التكنولوجي إلى نمو سريع في الصناعة، فإنه جلب أيضًا تحديات جديدة لتنظيم الذكاء الاصطناعي التوليدي. لقد لعبت تقنية التقطير الخاصة بشركة DeepSeek ونموذج سلسلة الأفكار واستراتيجية المصدر المفتوح دورًا مهمًا في تحسين أداء النموذج وتوسيع سيناريوهات التطبيق وتعزيز الابتكار التكنولوجي. على الرغم من أن التطبيق الفني لـ DeepSeek قد خفف إلى حد ما من معضلة "الصندوق الأسود للخوارزمية" والمراجعة التنظيمية، فإنه يجلب أيضًا تحديات جديدة في حماية الخصوصية والامتثال للبيانات، وحقوق الملكية الفكرية، و"مشكلة الهلوسة" وأمن النماذج.
في المستقبل، سوف تستمر تكنولوجيا الذكاء الاصطناعي في التطور، مما يؤدي إلى ثورة تكنولوجية في حين يجلب في الوقت نفسه المخاطر والتحديات. وسوف تصبح أهمية الإشراف بارزة بشكل متزايد. لذلك، يجب علينا أن نتطلع إلى المستقبل ونتنبأ باتجاه تطوير الذكاء الاصطناعي التوليدي، ومواصلة توحيد جمع البيانات، ومعالجة البيانات، وتخزين البيانات ونقلها، وحماية الخصوصية الشخصية بشكل فعال، وتعزيز بناء أنظمة الامتثال للبيانات؛ بالنسبة لتقنيات مثل التقطير والمصدر المفتوح، يجب علينا تشجيع تطبيق "القوانين الناعمة" مثل معايير الصناعة والمعايير الفنية، وتحديد طبيعة السلوك بدقة، وتحقيق التوازن بين الابتكار التكنولوجي والحماية التكنولوجية، ولكن أيضًا إنشاء آليات فعالة لتحفيز النماذج وتحديد الهوية والتغذية الراجعة والتتبع لإضعاف "خطر الوهم" للنماذج الكبيرة. وفي المستقبل، ومع تطور التكنولوجيا ونضجها، يمكن صياغة معايير أمنية نموذجية أكثر صرامة لمنع المخاطر التكنولوجية وحماية المصالح العامة والأمن الاجتماعي مع الاستفادة الكاملة من مزايا تكنولوجيا الذكاء الاصطناعي. وينبغي للبحوث التنظيمية المتعلقة بالتقنيات المستقبلية أن تتخذ منظورًا دوليًا أيضًا، وأن تعزز التنسيق والتعاون العالميين في تنظيم الذكاء الاصطناعي، وتروج لحلول الصين لتنظيم الذكاء الاصطناعي التوليدي في النظام الدولي المعاصر، وتستجيب للتحديات العالمية المتمثلة في تطوير الذكاء الاصطناعي.
المصدر | مجلة جامعة شينجيانج العادية (طبعة الفلسفة والعلوم الاجتماعية) نُشرت لأول مرة على الإنترنت
لقد تجاوزت هبة رمز BONK المقدمة من هاتف Solana's Saga المحمول سعر بيع الهاتف بشكل مذهل، مما أدى إلى زيادة الطلب وتقييم السوق، وعرض التآزر المتقلب لتكنولوجيا التشفير.
Alexيمثل Scroll Origins NFT، وهو رمز مميز حصري للمستخدمين المشاركين في شبكة Scroll الرئيسية، تحولًا نحو الأصول الرقمية المخصصة التي تركز على الهوية في عالم blockchain.
Kikyoيؤكد الصدام القانوني بين Coinbase وهيئة الأوراق المالية والبورصة (SEC) على مدى تعقيد المشهد المتطور لتنظيم العملات المشفرة.
Hui Xinوسط الصراعات، شهدت Mimic Shhans تراجعًا، أعقبه النشر المكلف واللامركزي لـ MMSS، مما أثار تساؤلات حول نموها في عالم تنافسي لرموز BRC-20.
Hui Xinيكشف النظام البيئي متعدد الأوجه لـ MMSS عن مجتمع لا مركزي يتشابك بين الفن والثقافة والتكنولوجيا، ويستعد للنمو الكبير والتأثير الثقافي داخل عالم blockchain.
Hui Xinيعد المشروع التجريبي الجاري للعملات الرقمية للبنوك المركزية في بالاو خطوة مهمة نحو نظام بيئي مالي شامل رقميًا وفعال. ومع نجاح المرحلة الأولى وبداية المرحلة الثانية، أصبحت بالاو رائدة في استخدام تقنية blockchain في العملات الوطنية، مما قد يشكل مستقبل التمويل الرقمي العالمي.
Alexتتعاون شركة Yield Guild Games مع Ubisoft، مما يعزز قيمة العملات البديلة واهتمام السوق، على الرغم من أن الآفاق طويلة المدى لا تزال غير مؤكدة.
Kikyoتقترح خطة الإفلاس الجديدة لشركة FTX تقييم الأصول الرقمية في تاريخ الإفلاس، مما قد يضر الدائنين.
Alexتطلق Chainlink 162 مليون دولار من رموز LINK، متباينة عن توقعات السوق المعتادة من خلال استخدامها لحوافز الشبكة وتطويرها.
Kikyoإن تجميد حساب تشيس المفاجئ وإنهائه يترك العميل يواجه صعوبات مالية بعد إيداع شيك استرداد حكومي.
Alex