المؤلف: تشانغ فنغ
لا شك أن الذكاء الاصطناعي هو أحدث توجه تكنولوجي عالميًا، وهو يُعيد تشكيل مختلف الصناعات بسرعة غير مسبوقة. ومع ذلك، وراء هذا المشهد المزدهر والصاخب، تكمن حقيقة قاسية وهي أن الغالبية العظمى من شركات الذكاء الاصطناعي، وخاصةً الشركات الناشئة، لم تجد مسارًا مستقرًا ومستدامًا لتحقيق الربحية. فهي عالقة في مأزق "مُشاد به ولكنه غير مجدٍ تجاريًا"، حيث يتعايش الازدهار التكنولوجي مع الخسائر التجارية.
I. لماذا "نخسر المال لنكتسب شعبية"؟
لا تنبع معضلة الربحية لشركات الذكاء الاصطناعي من فشل التكنولوجيا نفسها، بل من التناقضات الهيكلية الناجمة عن نموذج تطويرها المركزي.
ويمكن إرجاع ذلك تحديدًا إلى الأسباب الرئيسية الثلاثة التالية: المركزية المفرطة: التكاليف الباهظة والاحتكارات القلة. يُعد الذكاء الاصطناعي السائد حاليًا، وخاصة النماذج واسعة النطاق، صناعة نموذجية "تعتمد على الأصول بشكل كبير". تستهلك عمليات التدريب والاستدلال الخاصة به كميات هائلة من طاقة الحوسبة (وحدات معالجة الرسومات) والتخزين والكهرباء. وهذا يؤدي إلى الاستقطاب: فمن ناحية، توجد شركات تقنية عملاقة ذات رأس مال كبير (مثل جوجل ومايكروسوفت وOpenAI)، قادرة على استثمار مئات الملايين أو حتى مليارات الدولارات؛ من ناحية أخرى، هناك العديد من الشركات الناشئة التي تضطر إلى "المساهمة" بمعظم تمويلها لمقدمي خدمات السحابة للحصول على قوة حوسبة، مما يؤدي إلى هوامش ربح ضيقة للغاية. وقد أدى هذا النموذج إلى خلق "احتكار قوة الحوسبة"، مما أدى إلى خنق الابتكار. على سبيل المثال، حتى OpenAI، في مراحل تطويرها المبكرة، اعتمدت بشكل كبير على استثمارات مايكروسوفت الضخمة وموارد الحوسبة السحابية Azure لدعم أبحاث وتشغيل ChatGPT. بالنسبة للغالبية العظمى من الشركات، تُصعّب التكاليف الثابتة المرتفعة تحقيق الربحية على نطاق واسع. معضلات البيانات: عوائق الجودة ومخاطر الخصوصية. البيانات هي وقود الذكاء الاصطناعي. تواجه شركات الذكاء الاصطناعي المركزية عادةً تحديين رئيسيين في الحصول على بيانات تدريب عالية الجودة وواسعة النطاق. أولًا، يُعد الحصول على البيانات مكلفًا للغاية. سواء من خلال الجمع المدفوع، أو تصنيف البيانات، أو استخدام بيانات المستخدم، فإنه يتطلب استثمارات مالية ووقتية كبيرة. ثانيًا، مخاطر خصوصية البيانات والامتثال كبيرة. مع تشديد لوائح البيانات العالمية (مثل اللائحة العامة لحماية البيانات وقانون خصوصية المستهلك في كاليفورنيا)، فإن جمع البيانات واستخدامها دون إذن صريح من المستخدم يمكن أن يؤدي بسهولة إلى إجراءات قانونية وغرامات باهظة. على سبيل المثال، واجهت العديد من شركات التكنولوجيا المعروفة غرامات باهظة بسبب مشكلات استخدام البيانات. وهذا يخلق مفارقة: لا يمكن للذكاء الاصطناعي أن يتطور بدون بيانات، ولكن الحصول على البيانات واستخدامها أمر بالغ الصعوبة. اختلال التوازن في توزيع القيمة: المساهمون والمبدعون مستبعدون من الإيرادات. في النظام البيئي الحالي للذكاء الاصطناعي، يكون توزيع القيمة غير عادل للغاية. يعتمد تدريب نموذج الذكاء الاصطناعي على عدد لا يحصى من البيانات السلوكية التي ينشئها المستخدمون، والمحتوى الذي ينتجه المبدعون (النصوص والصور والرموز، وما إلى ذلك)، والرموز مفتوحة المصدر التي يساهم بها المطورون في جميع أنحاء العالم. ومع ذلك، لا يتلقى هؤلاء المساهمون الأساسيون أي مكافأة تقريبًا من القيمة التجارية الهائلة التي تنتجها نماذج الذكاء الاصطناعي. هذه ليست مجرد قضية أخلاقية ولكنها أيضًا نموذج أعمال غير مستدام. إنها تثبط حماس المساهمين في البيانات ومنشئي المحتوى، وعلى المدى الطويل، تؤدي إلى تآكل أساس التحسين والابتكار المستمر لنماذج الذكاء الاصطناعي. من الأمثلة الشائعة اتهام العديد من الفنانين والكتاب لشركات الذكاء الاصطناعي باستخدام أعمالهم للتدريب والتربح دون أي تعويض، مما أثار جدلاً واسع النطاق ونزاعات قانونية. ثانياً: نموذج ربح جديد: الذكاء الاصطناعي اللامركزي (DeAI) ليس تقنية واحدة، بل هو نموذج جديد يدمج تقنية البلوك تشين والتشفير والحوسبة الموزعة. يهدف إلى إعادة هيكلة علاقات إنتاج الذكاء الاصطناعي من خلال اللامركزية، وبالتالي معالجة نقاط الضعف الرئيسية الثلاث المذكورة أعلاه وفتح آفاق جديدة للربحية. يستخدم DeAI نموذج "التعهيد الجماعي" لتوزيع طلب قوة الحوسبة على العقد الخاملة (أجهزة الكمبيوتر الشخصية، ومراكز البيانات، وغيرها) عالميًا. يشبه هذا "Airbnb لوحدات معالجة الرسومات"، مما يُشكل سوقًا عالميًا تنافسيًا لقوة الحوسبة، مما يُقلل بشكل كبير من تكاليف قوة الحوسبة. يحصل المشاركون على حوافز رمزية مقابل مساهمتهم بقوة الحوسبة، مما يُحقق تخصيصًا أمثل للموارد. يستخدم DeAI تقنيات مثل التعلم الفيدرالي والتشفير التماثلي لتحقيق "تحرك النموذج مع ثبات البيانات". يتجنب هذا النظام مركزية البيانات الخام، وتوزيع النماذج على مصادر بيانات مختلفة للتدريب المحلي، وتجميع تحديثات المعلمات المشفرة فقط. هذا يحمي خصوصية البيانات بشكل أساسي، مع الاستفادة من قيمة البيانات اللامركزية بشكل قانوني ومتوافق. يمكن لمالكي البيانات أن يقرروا بشكل مستقل ما إذا كانوا سيوفرون البيانات ويستفيدون منها. يبني DeAI نظامًا شفافًا وعادلًا لتوزيع القيمة من خلال اقتصاديات الرموز والعقود الذكية. يمكن للمساهمين في البيانات، وموفري الطاقة الحاسوبية، ومطوري النماذج، وحتى مستخدمي النماذج، الحصول تلقائيًا على مكافآت الرموز المقابلة من خلال العقود الذكية بناءً على مساهماتهم. هذا يحوّل الذكاء الاصطناعي من "صندوق أسود" تسيطر عليه شركات عملاقة إلى اقتصاد مفتوح يبنيه ويحكمه ويتشاركه المجتمع. ثالثًا: التحول إلى بنية ثلاثية الطبقات: يتطلب نقل شركات الذكاء الاصطناعي المركزية التقليدية إلى نموذج DeAI إعادة هيكلة منهجية عبر ثلاثة مستويات: التكنولوجيا، والأعمال، والحوكمة. (I) إعادة الهيكلة التكنولوجية من الأنظمة المركزية إلى الأنظمة الموزعة (I) طبقة قوة الحوسبة: بالاعتماد على مشاريع شبكة البنية التحتية المادية اللامركزية (DePIN)، مثل شبكة Akash وشبكة Render، تم بناء مجمع قوة حوسبة موزعة مرن ومنخفض التكلفة ليحل محل خدمات السحابة المركزية التقليدية. طبقة البيانات: تم اعتماد التعلم الفيدرالي كإطار تدريب أساسي، إلى جانب تقنيات التشفير مثل التشفير المتجانس والحوسبة الآمنة متعددة الأطراف لضمان خصوصية البيانات وأمانها. إنشاء سوق بيانات قائم على تقنية بلوكتشين، مثل بروتوكول Ocean، لتمكين معاملات البيانات في ظل وجود ملكية وأمان راسخين. تتضمن طبقة النموذج نشر نماذج ذكاء اصطناعي مدربة على بلوكتشين في شكل "عقود ذكية للذكاء الاصطناعي"، مما يجعلها شفافة وقابلة للتحقق ودون الحاجة إلى إذن. يمكن تسجيل كل استخدام للنموذج والإيرادات الناتجة عنه بدقة وتوزيعها. (II) إعادة هيكلة الأعمال من بيع الخدمات إلى بناء منظومة متكاملة: من البرمجيات كخدمة (SaaS) إلى البيانات كخدمة (DaaS) والنموذج كخدمة (MaaS)، لم تعد الشركات تبيع فقط عدد مكالمات واجهة برمجة التطبيقات (API)، بل أصبحت تعمل كبناة للمنظومة المتكاملة، محفزةً مشاركة المجتمع في بناء الشبكة من خلال إصدار رموز الخدمات أو رموز الحوكمة. توسعت مصادر الإيرادات من رسوم الخدمة الفردية لتشمل زيادة قيمة الرموز الناتجة عن نمو قيمة المنظومة المتكاملة وأرباح رسوم المعاملات. لذلك، فإن بناء منصة مهام لامركزية تنشر مهامًا مثل شرح البيانات، وضبط النماذج، وتطوير التطبيقات لسيناريوهات محددة على شكل "مكافآت"، يتيح لأعضاء المجتمع العالمي القيام بهذه المهام والحصول على مكافآت، مما يقلل بشكل كبير من تكاليف التشغيل ويحفز الابتكار. (III) من النظام المؤسسي إلى المنظمات اللامركزية المستقلة: إعادة هيكلة الحوكمة القائمة على حوكمة المجتمع. من خلال امتلاك رموز الحوكمة، يتمتع المشاركون في المجتمع (المساهمون والمستخدمون) بحق التصويت على القرارات الرئيسية، مثل اتجاه تعديلات معلمات النموذج، واستخدام أموال الخزانة، وأولوية تطوير الميزات الجديدة. وهذا يُحقق مبدأ "المستخدمون هم المالكون". بناءً على الانفتاح والشفافية، تُحفظ جميع الأكواد البرمجية والنماذج (التي يُمكن أن يكون بعضها مفتوح المصدر) وسجلات المعاملات وقرارات الحوكمة على سلسلة الكتل (البلوك تشين) لضمان انفتاح العملية وشفافيتها، مما يُرسي علاقة تعاونية لا تعتمد على الثقة. وهذا بحد ذاته يُمثل رصيدًا قويًا للعلامة التجارية وضمانًا للثقة. على سبيل المثال، عند تحويل منصات بيانات اللوجستيات التقليدية إلى الذكاء الاصطناعي اللامركزي (DeAI)، تكمن معضلة منصات بيانات اللوجستيات التقليدية في أنه على الرغم من أنها تجمع البيانات من جهات مختلفة مثل النقل البحري والنقل البري والتخزين، إلا أن المشاركين "غير راغبين في المشاركة" بسبب مخاوف من تسريب الأسرار التجارية، مما يؤدي إلى انعزال البيانات وتقييد قيمة المنصة. يتمثل جوهر تحول الذكاء الاصطناعي اللامركزي في الكشف عن قيمة البيانات وتقديم حوافز عادلة دون الكشف عن البيانات الخام: من الناحية الفنية، يتم بناء شبكة حوسبة موثوقة. لم تعد المنصة تُخزّن البيانات مركزيًا، بل تتحول إلى طبقة تنسيق قائمة على تقنية البلوك تشين. باستخدام تقنيات مثل التعلم الفيدرالي، تُوزّع نماذج الذكاء الاصطناعي على الخوادم المحلية لمختلف المؤسسات (مثل شركات الشحن والمستودعات) للتدريب، حيث تُجمّع تحديثات المعلمات المشفرة فقط لتحسين نموذج التنبؤ العالمي بشكل جماعي (مثل أوقات وصول سفن الشحن ومخاطر التحميل الزائد للمستودعات)، مما يُحقق "ثبات البيانات، وحركة القيمة". على صعيد الأعمال، يتم تطبيق استغلال البيانات كمصدر أساسي وحوافز رمزية. تُصدر المنصة نظام نقاط عمليًا، حيث تكسب شركات الخدمات اللوجستية نقاطًا من خلال المساهمة بالبيانات (معلمات النموذج) لاستخراجها للحصول على مكافآت. يدفع العملاء في المراحل النهائية (مثل مالكي البضائع) رموزًا للاستعلام عن "تنبؤات" عالية الدقة (مثل معدل الالتزام بالمواعيد لمسار معين للأسبوع التالي)، بدلاً من شراء البيانات الخام. تُوزّع المكافآت تلقائيًا على المساهمين بالبيانات عبر عقود ذكية. أما من حيث الحوكمة، فقد بُنيت المنصة على أساس منظمة الوصول إلى البيانات (DAO) على مستوى الصناعة. تُحكم القرارات الرئيسية (مثل تطوير الميزات الجديدة وتعديلات الرسوم) بتصويت حاملي الرموز (أي المشاركين الأساسيين)، مما يُحوّل المنصة من شركة مملوكة للقطاع الخاص إلى مجتمع صناعي متكامل. تحولت المنصة من مؤسسة مركزية تسعى إلى تحصيل رسوم وسيط البيانات إلى نظام فعّال لسلسلة صناعة الخدمات اللوجستية بأكملها، يُمكّنها من بناء الموارد وإدارتها ومشاركتها. ومن خلال حل مشكلات الثقة، حسّنت المنصة بشكل كبير كفاءة التعاون في القطاع ومقاومة المخاطر. رابعًا: الامتثال والأمان: على الرغم من أن الذكاء الاصطناعي التكنولوجي (DeAI) يتمتع بمستقبل واعد، إلا أن تطويره لا يزال في مراحله الأولى ويواجه سلسلة من التحديات التي لا يمكن تجاهلها. الامتثال وعدم اليقين القانوني: فيما يتعلق بلوائح البيانات، حتى في حال عدم نقل البيانات، يجب أن تلتزم نماذج مثل التعلم الفيدرالي، عند معالجة البيانات الشخصية، بصرامة بمتطلبات اللائحة العامة لحماية البيانات (GDPR) واللوائح الأخرى المتعلقة بـ "تقييد الغرض" و"تقليل البيانات" وحقوق المستخدم (مثل الحق في النسيان). يجب على فرق المشروع تصميم آليات متوافقة لتفويض البيانات وإصدارها. فيما يتعلق بلوائح الأوراق المالية، من المرجح جدًا أن تُعرّف الهيئات التنظيمية في مختلف الدول (مثل هيئة الأوراق المالية والبورصات الأمريكية) الرموز الصادرة عن المشاريع على أنها أوراق مالية، مما يُخضعها لتدقيق تنظيمي صارم. يُعدّ تجنب المخاطر القانونية عند تصميم نموذج اقتصادي رمزي أمرًا بالغ الأهمية لاستمرار المشروع. وفيما يتعلق بمسؤولية المحتوى، إذا أنتج نموذج DeAI على السلسلة محتوى ضارًا أو متحيزًا أو غير قانوني، فمن المسؤول؟ هل هو مطور النموذج، أم مزود الطاقة الحاسوبية، أم حامل رمز الحوكمة؟ يُمثل هذا تحديات جديدة للنظام القانوني الحالي. وفيما يتعلق بتحديات الأمن والأداء، قد يواجه أمن النموذج - أي النماذج المُستخدمة على السلاسل العامة - نواقل هجوم جديدة، مثل استغلال ثغرات العقود الذكية أو الهجمات الخبيثة على أنظمة التعلم الفيدرالية من خلال إفساد البيانات. وقد لا تتمكن اختناقات الأداء، وتحديدًا سرعة المعاملات المتأصلة في سلسلة الكتل (TPS) وقيود التخزين، من دعم طلبات الاستدلال عالية التردد ومنخفضة زمن الوصول للنماذج الكبيرة. وهذا يستلزم مزيجًا فعالًا من حلول التوسع من الطبقة الثانية والحوسبة خارج السلسلة. كفاءة التعاون، على الرغم من أنها عادلة، قد تؤدي إلى انخفاض كفاءة صنع القرار والتنفيذ مقارنة بالشركات المركزية. إن إيجاد توازن بين الكفاءة والعدالة هو فن يجب على حوكمة DAO استكشافه باستمرار. يتمتع DeAI، باعتباره ثورة في علاقات الإنتاج، بالقدرة على كسر احتكار العمالقة، وإطلاق قيمة قوة الحوسبة والبيانات الخاملة عالميًا، وبناء نظام بيئي جديد للذكاء الاصطناعي أكثر إنصافًا واستدامة وربما أكثر ربحية من خلال التكنولوجيا الموزعة، واقتصاد الرموز، وحوكمة المجتمع. خامسًا: اتجاهات الاستكشاف الحالية لا يزال أمام تطوير أدوات الذكاء الاصطناعي الحالية طريق طويل قبل تحقيق الذكاء الاصطناعي اللامركزي المثالي. نحن حاليًا في مرحلة مبكرة تهيمن عليها الخدمات المركزية، لكن بعض الاستكشافات أشارت بالفعل إلى الطريق إلى الأمام.

الاستكشاف الحالي والتحديات المستقبلية.على الرغم من أن الذكاء الاصطناعي الديموغرافي المثالي لم يتحقق بعد، إلا أن الصناعة تبذل بالفعل محاولات قيمة، مما يساعدنا على رؤية المسار المستقبلي والعقبات التي يجب التغلب عليها.
مثل النموذج الأولي لنظام متعدد الوكلاء التعاون. تستكشف بعض المشاريع إنشاء بيئات يتعاون فيها وكلاء الذكاء الاصطناعي ويتطورون معًا. على سبيل المثال، يهدف مشروع AMMO إلى إنشاء "شبكة تكافلية بين البشر والذكاء الاصطناعي"، من خلال إطاره متعدد الوكلاء وبيئة محاكاة RL Gyms، مما يسمح لوكلاء الذكاء الاصطناعي بتعلم التعاون والتنافس في سيناريوهات معقدة. يمكن اعتبار هذا محاولة لبناء قواعد التفاعل الأساسية لعالم DeAI. ومن الأمثلة الأخرى التجربة الأولية لنماذج الحوافز. ففي رؤية DeAI، يجب أن يحصل المستخدمون الذين يساهمون بالبيانات والعقد التي توفر قوة حوسبة على مكافآت عادلة. وتحاول بعض المشاريع إعادة توزيع القيمة مباشرةً على المساهمين في النظام البيئي من خلال أنظمة حوافز تشفيرية. وبطبيعة الحال، لا يزال العمل على هذا النموذج الاقتصادي على نطاق واسع وبثبات وعدالة يمثل تحديًا كبيرًا. على سبيل المثال، يُظهر التوجه نحو ذكاء اصطناعي أكثر استقلالية: تُظهر منتجات من نوع البحث العميق الاستقلالية القوية للذكاء الاصطناعي في مهام محددة (مثل استرجاع المعلومات وتحليلها). يمكنهم التخطيط بشكل مستقل، وتنفيذ عمليات متعددة الخطوات، وتحسين النتائج بشكل متكرر. تُشكل قدرة أتمتة المهام هذه أساس التشغيل المستقل لوكلاء الذكاء الاصطناعي في شبكات DeAI المستقبلية. بالنسبة لممارسي الذكاء الاصطناعي الذين يواجهون صعوبات في سوق المحيط الأحمر، بدلاً من البقاء حبيسين النموذج القديم، من الأفضل لهم أن يتبنوا بشجاعة المحيط الأزرق الجديد لـ DeAI. هذا ليس مجرد تحول في النهج التكنولوجي، بل هو أيضًا إعادة تشكيل لفلسفة الأعمال - من "الاستغلال" إلى "الحوافز"، ومن "الانغلاق" إلى "الانفتاح"، ومن "أرباح الاحتكار" إلى "النمو الشامل".