Theo tin tức chính thức, OpenAI đã phát hành một hướng dẫn bảo mật có tên “Khuôn khổ chuẩn bị” trên trang web chính thức của mình, trong đó quy định “một quy trình theo dõi, đánh giá, dự đoán và ngăn chặn những rủi ro thảm khốc do các mô hình ngày càng mạnh mẽ mang lại”.
OpenAI giải thích rằng nghiên cứu về rủi ro của trí tuệ nhân tạo tiên tiến chưa đạt được những gì cần thiết. Để giải quyết khoảng trống này và hệ thống hóa tư duy bảo mật, OpenAI đang áp dụng phiên bản beta của Khung sẵn sàng.
OpenAI đã thông báo trong một thông cáo báo chí rằng “Nhóm Chuẩn bị” sẽ làm việc để đảm bảo an ninh cho các mô hình trí tuệ nhân tạo tiên tiến. Nhóm Sẵn sàng sẽ liên tục đánh giá các hệ thống AI để hiểu cách chúng hoạt động trong bốn loại rủi ro khác nhau, bao gồm các vấn đề an ninh mạng tiềm ẩn, mối đe dọa hóa học, mối đe dọa hạt nhân và mối đe dọa sinh học, đồng thời nỗ lực giảm thiểu mọi tác hại mà công nghệ có thể gây ra. .
Cụ thể, OpenAI đang theo dõi cái gọi là rủi ro “thảm họa”, được định nghĩa trong hướng dẫn là “bất kỳ rủi ro nào có thể dẫn đến thiệt hại kinh tế hàng trăm tỷ đô la hoặc gây thương tích nghiêm trọng hoặc thậm chí tử vong cho nhiều người”.
Đáng chú ý, ban lãnh đạo có thể quyết định có phát hành các mô hình AI mới hay không dựa trên các báo cáo này, nhưng hội đồng quản trị có quyền hủy bỏ quyết định của mình, theo các nguyên tắc an toàn.