تعزيز المساءلة في مجال الذكاء الاصطناعي من خلال عروض التأمين الجديدة
أطلقت شركة لويدز أوف لندن، من خلال شركة أرميلا الناشئة التي يقع مقرها في تورنتو، بوليصة تأمين رائدة مصممة خصيصًا لعصر الذكاء الاصطناعي.
تهدف هذه التغطية إلى حماية الشركات من الخسائر المالية الناجمة عن الأخطاء أو الأعطال المتعلقة بالذكاء الاصطناعي.
في حين أن لويدز وأرميلا يستغلان ازدهارالذكاء الاصطناعي إن الشركات التي تسعى إلى توسيع نطاق سوقها لتنمية أعمالها - كما فعلت مع المخاطر الناشئة السابقة - تسلط هذه الخطوة الضوء على حقيقة مهمة: وهي أن الذكاء الاصطناعي، على الرغم من إمكاناته التحويلية، لا يزال يشكل خطراً تجارياً كبيراً.
بالنسبة للشركات التي تأمل أن تعمل الذكاء الاصطناعي على خفض التكاليف التشغيلية، فإن هذا التأمين الجديد يشكل ملاحظة تحذيرية.
وفي الواقع، قد يؤدي دمج الذكاء الاصطناعي إلى زيادة النفقات مثل أقساط التأمين.
تم تصميم سياسة Armilla لتغطية التكاليف القانونية والأضرار المحتملة إذا واجهت الشركة دعاوى قضائية تتعلق بالأضرار الناجمة عن منتجات الذكاء الاصطناعي الخاصة بها.
ويشير الرئيس التنفيذي كارثيك راماكريشنان إلى أنه بالإضافة إلى تخفيف المخاطر، فإن هذا التأمين قد يشجع على اعتماد الذكاء الاصطناعي على نطاق أوسع من خلال تخفيف المخاوف بشأن فشل التكنولوجيا.
على سبيل المثال، في عام 2024، واجهت شركة طيران كندا عواقب باهظة الثمن بعد أن عرض روبوت الدردشة الذكي الخاص بها عن طريق الخطأ خصومات غير مصرح بها، وأجبر حكم قضائي شركة الطيران على احترام تلك العروض.
ولو كانت شركة طيران كندا مؤمنة بموجب سياسة أرميلا، لكان من الممكن التخفيف من بعض هذه الخسائر.
ومع ذلك، فإن التغطية انتقائية - حيث لا تؤمن شركة Armilla أنظمة الذكاء الاصطناعي إلا بعد إجراء تقييم شامل لضمان مستوى مقبول من المخاطر، وترفض تغطية النماذج "الضعيفة" المعرضة للفشل.
ويتناقض هذا مع بعض شركات التأمين الحالية التي توفر حماية محدودة متعلقة بالذكاء الاصطناعي كجزء من سياسات الأخطاء التقنية الأوسع نطاقًا.
وفي نهاية المطاف، يعكس هذا المنتج الجديد المشهد المتطور حيث يتم موازنة قوة الذكاء الاصطناعي بالمخاطر الحقيقية التي يفرضها - والحاجة المتزايدة للشركات لإدارة هذه المخاطر بشكل استباقي.
مخاطر الاعتماد على بيانات الذكاء الاصطناعي المصطنعة في اتخاذ القرارات
تأثير الشركات المعتمدة علىتم إنشاؤه بواسطة الذكاء الاصطناعي يمكن أن تكون الأكاذيب - المعروفة بالهلوسة - عميقة، وتؤدي إلى اتخاذ قرارات خاطئة، ونكسات مالية، وضرر للسمعة، وفقًا لموقع أخبار الصناعة PYMNTS.
ويثير المقال أيضًا أسئلة حاسمة حول المساءلة عندما تنتج أنظمة الذكاء الاصطناعي مثل هذه الأخطاء.
ويتماشى هذا القلق مع رؤى إم جيه جيانج، كبير مسؤولي الاستراتيجية في شركة Credibly، الذي أخبر مجلة Inc مؤخرًا أنه في حين لا يمكن القضاء على الهلوسة في الذكاء الاصطناعي بشكل كامل، إلا أنه لا يمكن سوى التخفيف منها.
وحذر جيانج من أن الشركات تواجه مخاطر قانونية كبيرة بسبب هذه الأخطاء الناجمة عن الذكاء الاصطناعي، ويجب عليها أن تدرس بشكل استباقي من يتحمل المسؤولية إذا أدى خطأ الذكاء الاصطناعي إلى ضرر.
وتؤكد على أهمية وضع استراتيجيات تخفيف قوية لتقليل هذه المخاطر.
في الواقع، فهي تعتقد أن:
"... نظرًا لأن GenAI لا يمكنها أن تشرح لك كيفية التوصل إلى النتائج، فإن الحوكمة البشرية ستكون ضرورية في الشركات حيث تكون حالات الاستخدام ذات مخاطر أعلى على الأعمال التجارية."
يحذر قادة الأعمال والخبراء على حد سواء من اعتمادالذكاء الاصطناعي إن هذا الأمر بعيد كل البعد عن كونه خاليًا من المخاطر ويدعو إلى التحضير الشامل لضمان الامتثال وإدارة التحديات القانونية المحتملة.
إن دمج هذه الاعتبارات في استراتيجية الذكاء الاصطناعي وميزانيتك أمر ضروري للتغلب على المخاطر المعقدة التي يفرضها تطبيق الذكاء الاصطناعي.