نصائح الذكاء الاصطناعي الصحية تؤدي إلى حالة نادرة من التسمم بالبروم بعد تجربة استبدال الملح
انتهى الأمر برجل يبلغ من العمر 60 عامًا في الولايات المتحدة في المستشفى لمدة ثلاثة أسابيع بعد محاولته إزالة الملح من نظامه الغذائي، بعد اتباع نصيحة طلبها من روبوت الدردشة AI ChatGPT.
وعلى أمل تقليل كلوريد الصوديوم، قام باستبداله ببروميد الصوديوم، وهو مركب استخدم تاريخيا في الطب والصناعة وليس لتتبيل الطعام.
وقد أدى هذا القرار إلى مضاعفات صحية خطيرة، بما في ذلك جنون العظمة، والهلوسة، والأعراض العصبية.
مصدر: مجلات ACP
جنون العظمة والهلوسة يستدعيان دخول الطوارئ
وصل الرجل، الذي كان يتمتع بصحة جيدة ولا يعاني من أي تاريخ نفسي، إلى قسم الطوارئ مقتنعًا بأن جاره يحاول تسميمه.
وأفاد بأنه كان يعاني من العطش الشديد وحتى أنه رفض الماء المعروض عليه.
أظهرت الاختبارات المعملية مستويات غير طبيعية من الإلكتروليت، بما في ذلك ارتفاع كلوريد الدم وفجوة الأنيون السلبية.
وسرعان ما اشتبه الأطباء في التسمم بالبروميد، أو التسمم بالبروميد، وهي حالة نادراً ما نراها اليوم.
وفي غضون 24 ساعة، تزايدت حدة جنونه وهلوساته السمعية والبصرية، مما أدى إلى احتجازه في مصحة نفسية لا إرادية.
البرومية: عودة متلازمة السمية التاريخية
كانت سمية البروميد شائعة في أوائل القرن العشرين عندما كانت أملاح البروميد تستخدم في المهدئات والأدوية المتاحة دون وصفة طبية، مما ساهم في حوالي 8٪ من حالات دخول المستشفيات النفسية في ذروتها.
أوقفت إدارة الغذاء والدواء الأمريكية استخدام مادة البروميد في المنتجات القابلة للابتلاع بين عامي 1975 و1989، مما يجعل الحالات اليوم نادرة للغاية.
يمكن أن تشمل الأعراض التعب والأرق والترنح الخفيف والعطش الشديد وآفات الجلد والاضطرابات العصبية.
وفي هذه الحالة، وصلت مستويات البروميد لدى المريض إلى 1700 ملغم/لتر، أي أكثر من 200 مرة فوق النطاق المرجعي.
أخطاء الذكاء الاصطناعي تُسلّط الضوء على مخاطر تقديم نصائح صحية خارج سياقها
وأشار تقرير حوليات الطب الباطني إلى أنه عندما استفسر الباحثون عن بدائل الكلوريد باستخدام ChatGPT 3.5، اقترح الذكاء الاصطناعي البروميد.
وقالت الدراسة،
"ورغم أن الرد ذكر أن السياق مهم، إلا أنه لم يقدم تحذيراً صحياً محدداً، ولم يستفسر عن سبب رغبتنا في معرفة ذلك، كما نفترض أن أي متخصص طبي سيفعل."
وأكد الأطباء أن الذكاء الاصطناعي يمكن أن ينتج معلومات غير دقيقة علمياً وقد يعزز الممارسات غير الآمنة عندما يكون السياق مفقوداً.
التعافي من خلال العناية المركزة
وتضمن علاج الرجل إعطاء سوائل وريدية مكثفة وتصحيحا دقيقا للإلكتروليتات.
وعلى مدى ثلاثة أسابيع، عادت حالته العقلية ونتائج فحوصاته المخبرية إلى طبيعتها تدريجيا، وخرج من المستشفى دون استمرار تناوله أي أدوية نفسية.
استجابت OpenAI بإجراءات أمان جديدة
في أعقاب حالات مثل هذه، قدمت OpenAI ضمانات أكثر صرامة لـ ChatGPT، وخاصة فيما يتعلق بالإرشادات المتعلقة بالصحة العقلية.
وأعلنت الشركة أن الذكاء الاصطناعي سيوفر الآن موارد قائمة على الأدلة، ويشجع الاستشارة المهنية، ويمتنع عن تقديم المشورة بشأن القرارات الشخصية ذات المخاطر العالية.
ويأتي التحديث بعد انتقاد الإصدارات السابقة من GPT-4o لكونها "ممتعة للغاية" وأحيانًا تفشل في التعرف على علامات الضيق الخطيرة.
تُثير نصائح الذكاء الاصطناعي الصحية تساؤلات حول السلامة والرقابة
وتشير شركة كوين لايف إلى أن حوادث مثل هذه تكشف عن الخط الهش الفاصل بين وعد الذكاء الاصطناعي وحدوده العملية.
ورغم أن أدوات مثل ChatGPT قادرة على تقديم معلومات سريعة، فإنها تظل غير قادرة على تقييم السياق أو المخاطر الشخصية، مما يجعل المستخدمين عرضة لنتائج ضارة.
وعلى مستوى السوق الأوسع، يسلط هذا الضوء على الحاجة الملحة إلى ضمانات أقوى والمساءلة في التوجيه الصحي المعتمد على الذكاء الاصطناعي.
قد تواجه المشاريع التي تفشل في تضمين فحوصات السلامة الصارمة صعوبة في اكتساب الثقة، مما يثير التساؤل عما إذا كان التبني السريع وحده كافياً لضمان الاستمرارية على المدى الطويل.