الشرطة الكورية تحذر من استخدام ChatGPT للحصول على معلومات حساسة عن القضايا
أصدرت وكالة الشرطة الوطنية الكورية (KNPA) تحذيرًا صارمًا لجميع مراكز الشرطة في جميع أنحاء البلاد، ونصحت بعدم إدخال تفاصيل التحقيق أو البيانات المتعلقة بالعمل في أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT.
تهدف هذه التوجيهات إلى منع خطر تسرب المعلومات الحساسة، وخاصة فيما يتعلق بالبيانات الشخصية والقضايا السرية.
هل تستخدم الشرطة تطبيق ChatGPT على الرغم من المخاطر؟
وعلى الرغم من الحذر، أصبح استخدام الذكاء الاصطناعي التوليدي مثل ChatGPT شائعًا بين الضباط الأصغر سنًا.
وقال مسؤول التحقيق، الملقب بـ"كيم"، لصحيفة "كوريا هيرالد":
"أصبح استخدام الذكاء الاصطناعي التوليدي مثل ChatGPT شائعًا بين العديد من مسؤولي الشرطة الشباب في السنوات الأخيرة."
وأضاف أن أدوات مثل ChatGPT كانت مفيدة لمراجعة القوانين والتحقيقات السابقة، وفي بعض الأحيان ألقت الضوء على قضايا قد لا يكون الضباط على دراية كاملة بها.
ماذا يقول إشعار KNPA حول استخدام الذكاء الاصطناعي؟
ويؤكد الإشعار الرسمي للوكالة، بعنوان "احتياطات عند استخدام أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT"، على أنه لا يجوز للضباط إدخال أي معلومات تحقيقية أو بيانات عمل أو تفاصيل شخصية في منصات الذكاء الاصطناعي هذه.
كما تنصح الشرطة بتجنب الإجابة على الأسئلة المتعلقة بالأمن التي تطرحها الذكاء الاصطناعي التوليدي وتطبيق عمليات مراجعة صارمة عند النظر في استخدام الذكاء الاصطناعي في أعمال التحقيق المتعلقة بتكنولوجيا المعلومات.
ما هي الدول الأخرى التي تقيد استخدام ChatGPT في العمل الرسمي؟
كوريا الجنوبية ليست الوحيدة التي تحد من استخدام أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT للأغراض الرسمية.
وقد فرضت العديد من الحكومات في جميع أنحاء العالم قيودًا مماثلة لحماية البيانات الحساسة.
على سبيل المثال، حظرت إيطاليا مؤقتًا ChatGPT في عام 2023 بسبب مخاوف تتعلق بالخصوصية، بينما أصدرت فرنسا أيضًا إرشادات تقيد استخدامه داخل الوكالات الحكومية.
في يناير 2025،حذرت وزارة المالية الهندية موظفيها من استخدام أدوات الذكاء الاصطناعي مثل ChatGPT على الأجهزة الرسمية بسبب المخاوف بشأن سرية البيانات الحكومية.
في الولايات المتحدة، أصدرت العديد من الإدارات الفيدرالية تحذيرات أو قيودًا على استخدام أدوات الذكاء الاصطناعي العامة عند التعامل مع المعلومات السرية أو الحساسة.
تعكس هذه التدابير حذرًا عالميًا متزايدًا بشأن مخاطر أمن البيانات المرتبطة بمنصات الذكاء الاصطناعي العامة في البيئات الرسمية.
كيف استخدمت KNPA الذكاء الاصطناعي في السابق؟
في مارس 2023، كشفت KNPA عن خطط للتعاون مع ChatGPT للمساعدة في صياغة الوثائق الإنجليزية للتعامل مع الجرائم العابرة للحدود.
وفي ذلك الوقت، أكدت الوكالة أنه لن يتم إدخال أي معلومات سرية أو بيانات شخصية في النظام، مما أدى إلى تقييد استخدام الذكاء الاصطناعي بشكل صارم على المساعدة اللغوية.
لماذا هناك قلق متزايد بشأن أمن البيانات؟
أعرب كبار مسؤولي الشرطة عن قلقهم بشأن احتمال تعرض بيانات التحقيق الحساسة للخطر عند نقلها خارج شبكات الشرطة الآمنة.
وقال أحد المصادر لصحيفة جونج آنج إلبو:
"إذا تم نقل سجلات التحقيق من شبكة الشرطة الداخلية إلى مواقع ويب خارجية تم إنشاؤها بواسطة الذكاء الاصطناعي، فإن خطر تسرب المعلومات الشخصية أو الكشف عن تفاصيل التحقيق السرية يزداد."
قاموا بمقارنة تنقية التقارير عبر ChatGPT بالسماح لتفاصيل التحقيق الهامة بالتسرب إلى خارج نطاق سيطرة الشرطة.
ماذا تفعل KNPA لتطوير حلول الذكاء الاصطناعي الأكثر أمانًا؟
ولمعالجة هذه المخاوف، تعمل KNPA مع LG CNS منذ أوائل عام 2025 لإنشاء نموذج ذكاء اصطناعي توليدي مخصص يسمى Exaone، وهو مصمم خصيصًا لاستخدام الشرطة.
تم تصميم نظام الذكاء الاصطناعي الداخلي هذا لمساعدة الضباط بشكل آمن من خلال تلخيص أقوال الشهود، وتحديد الحالات السابقة المماثلة، وتحليل التحقيقات لتسليط الضوء على القضايا الرئيسية.
وسوف يدعم أيضًا صياغة الوثائق الرسمية، كل ذلك داخل شبكة شرطة محمية لتجنب تسرب البيانات الخارجية.
يهدف تطوير أداة التحقيق المدعومة بالذكاء الاصطناعي هذه إلى الجمع بين الكفاءة والتحكم الأكثر صرامة في المعلومات الحساسة، مما يوفر بديلاً أكثر أمانًا لخدمات الذكاء الاصطناعي العامة مثل ChatGPT.
وبمجرد تنفيذه بالكامل، سيتم دمجه مباشرة في الأنظمة الداخلية لقوات الشرطة لمساعدة الضباط على إدارة القضايا بتركيز وأمن أفضل.