Cảnh sát Hàn Quốc cảnh báo không nên sử dụng ChatGPT để lấy thông tin vụ án nhạy cảm
Cơ quan Cảnh sát Quốc gia Hàn Quốc (KNPA) đã đưa ra cảnh báo nghiêm khắc tới tất cả các đồn cảnh sát trên toàn quốc, khuyến cáo không nên nhập thông tin điều tra hoặc dữ liệu liên quan đến công việc vào các công cụ AI tạo sinh như ChatGPT.
Chỉ thị này nhằm mục đích ngăn ngừa nguy cơ rò rỉ thông tin nhạy cảm, đặc biệt là thông tin liên quan đến dữ liệu cá nhân và các vấn đề bí mật.
Cảnh sát có sử dụng ChatGPT bất chấp rủi ro không?
Bất chấp sự thận trọng, việc sử dụng AI tạo ra như ChatGPT đã trở nên phổ biến trong giới sĩ quan trẻ.
Một viên chức điều tra họ Kim nói với tờ The Korea Herald,
“Việc sử dụng AI tạo sinh như ChatGPT đã trở nên phổ biến trong nhiều cảnh sát trẻ trong những năm gần đây.”
Ông nói thêm rằng các công cụ như ChatGPT rất hữu ích trong việc xem xét luật pháp và các cuộc điều tra trước đây, đôi khi làm sáng tỏ những trường hợp mà cảnh sát có thể chưa nắm rõ.
Thông báo của KNPA nói gì về việc sử dụng AI?
Thông báo chính thức của cơ quan có tiêu đề "Các biện pháp phòng ngừa khi sử dụng các công cụ AI tạo ra như ChatGPT" nhấn mạnh rằng các sĩ quan không được nhập bất kỳ thông tin điều tra, dữ liệu công việc hoặc thông tin cá nhân nào vào các nền tảng AI như vậy.
Tài liệu này cũng khuyên cảnh sát tránh trả lời các câu hỏi liên quan đến an ninh do AI tạo ra và áp dụng các quy trình đánh giá nghiêm ngặt khi cân nhắc sử dụng AI cho công việc điều tra liên quan đến CNTT.
Những quốc gia nào khác đang hạn chế sử dụng ChatGPT trong công việc chính thức?
Hàn Quốc không phải là quốc gia duy nhất hạn chế việc sử dụng các công cụ AI tạo ra như ChatGPT cho mục đích chính thức.
Một số chính phủ trên thế giới đã đưa ra những hạn chế tương tự để bảo vệ dữ liệu nhạy cảm.
Ví dụ, Ý đã tạm thời cấm ChatGPT vào năm 2023 vì lo ngại về quyền riêng tư, trong khi Pháp cũng đã ban hành hướng dẫn hạn chế sử dụng công cụ này trong các cơ quan chính phủ.
Vào tháng 1 năm 2025,Bộ Tài chính Ấn Độ cảnh báo nhân viên không nên sử dụng các công cụ AI như ChatGPT trên các thiết bị chính thức vì lo ngại về tính bảo mật dữ liệu của chính phủ.
Tại Hoa Kỳ, nhiều bộ liên bang đã ban hành cảnh báo hoặc hạn chế sử dụng các công cụ AI công cộng khi xử lý thông tin mật hoặc nhạy cảm.
Các biện pháp này phản ánh sự cảnh báo ngày càng tăng trên toàn cầu về rủi ro bảo mật dữ liệu liên quan đến nền tảng AI công cộng trong môi trường chính thức.
Trước đây KNPA đã sử dụng AI như thế nào?
Vào tháng 3 năm 2023, KNPA đã tiết lộ kế hoạch hợp tác với ChatGPT để hỗ trợ soạn thảo các tài liệu tiếng Anh nhằm xử lý tội phạm xuyên biên giới.
Vào thời điểm đó, cơ quan này đảm bảo rằng sẽ không có thông tin bí mật hoặc dữ liệu cá nhân nào được nhập vào hệ thống, giới hạn việc sử dụng AI chỉ trong phạm vi hỗ trợ ngôn ngữ.
Tại sao ngày càng có nhiều lo ngại về bảo mật dữ liệu?
Các quan chức cảnh sát cấp cao đã lên tiếng lo ngại về khả năng tiết lộ dữ liệu điều tra nhạy cảm khi chuyển ra ngoài mạng lưới cảnh sát an toàn.
Một nguồn tin nói với JoongAng Ilbo,
“Nếu hồ sơ điều tra từ mạng lưới cảnh sát nội bộ được chuyển đến các trang web bên ngoài do AI tạo ra, nguy cơ rò rỉ thông tin cá nhân hoặc tiết lộ thông tin điều tra bí mật sẽ tăng lên.”
Họ so sánh việc tinh chỉnh báo cáo thông qua ChatGPT với việc để các chi tiết điều tra quan trọng lọt khỏi tầm kiểm soát của cảnh sát.
KNPA đang làm gì để phát triển các giải pháp AI an toàn hơn?
Để giải quyết những lo ngại này, KNPA đã hợp tác với LG CNS từ đầu năm 2025 để tạo ra một mô hình AI tạo sinh chuyên dụng có tên là Exaone, được thiết kế riêng cho mục đích sử dụng của cảnh sát.
Hệ thống AI nội bộ này được thiết kế để hỗ trợ cảnh sát một cách an toàn bằng cách tóm tắt lời khai của nhân chứng, xác định các trường hợp tương tự trong quá khứ và phân tích các cuộc điều tra để làm nổi bật các vấn đề chính.
Nó cũng sẽ hỗ trợ soạn thảo các văn bản chính thức, tất cả đều được thực hiện trong mạng lưới cảnh sát được bảo vệ để tránh rò rỉ dữ liệu ra bên ngoài.
Việc phát triển công cụ điều tra được hỗ trợ bởi AI này nhằm mục đích kết hợp hiệu quả với khả năng kiểm soát chặt chẽ hơn đối với thông tin nhạy cảm, cung cấp giải pháp thay thế an toàn hơn cho các dịch vụ AI công cộng như ChatGPT.
Khi được triển khai đầy đủ, nó sẽ được tích hợp trực tiếp vào hệ thống nội bộ của lực lượng cảnh sát để giúp các sĩ quan quản lý các vụ án với sự tập trung và bảo mật tốt hơn.