Nguy cơ kỹ thuật số: Tại sao Chatbot AI nên bị cấm đối với trẻ em
Theo một nghiên cứu mới được tổ chức giám sát công nghệ Hoa Kỳ Common Sense công bố vào ngày 30 tháng 4, các thiết bị AI đồng hành được điều khiển bằng trí tuệ nhân tạo gây ra những rủi ro nghiêm trọng cho người dùng trẻ tuổi và không nên để trẻ vị thành niên sử dụng.
Sự trỗi dậy của AI tạo sinh sauTrò chuyệnGPT Sự ra mắt của AI đã thúc đẩy một làn sóng các công ty khởi nghiệp cung cấp "bạn bè" AI hoặc người bạn tâm giao kỹ thuật số có thể thích ứng với sở thích của người dùng - thường làm mờ ranh giới giữa tình bạn ảo và sự phụ thuộc về mặt cảm xúc.
Common Sense đã đánh giá các nền tảng bao gồm Nomi, Character AI và Replika, thử nghiệm cách các bot này phản ứng trong các tình huống thực tế.
Trong khi một số ví dụ "cho thấy có triển vọng", tổ chức này kết luận rằng những người bạn đồng hành AI này về cơ bản là không an toàn cho trẻ em.
Nghiên cứu được thực hiện với sự hợp tác của các chuyên gia sức khỏe tâm thần tại Đại học Stanford đã phát hiện ra rằng nhiều người bạn đồng hành AI được thiết kế để thúc đẩy sự gắn bó về mặt tình cảm - một động lực đặc biệt đáng lo ngại đối với sự phát triển não bộ của thanh thiếu niên.
Báo cáo nêu bật các trường hợp AI đưa ra lời khuyên có hại, củng cố định kiến hoặc tham gia vàođối thoại không phù hợp về mặt tình dục.
Tiến sĩ Nina Vasan, giám đốc Phòng thí nghiệm Brainstorm của Stanford, cho biết: “Các công ty có thể xây dựng tốt hơn”, đồng thời nói thêm rằng có thể thiết kế an toàn hơn và có trách nhiệm hơn khi sức khỏe tâm thần được ưu tiên ngay từ đầu.
Vasan nói thêm:
"Cho đến khi có biện pháp bảo vệ mạnh mẽ hơn, trẻ em không nên sử dụng chúng."
Những người bạn đồng hành của AI được khuyến khích đối mặt với các quy tắc nghiêm ngặt hơn sau các báo cáo đáng báo động về lời khuyên có hại cho thanh thiếu niên
Nghiên cứu đã phát hiện ra những ví dụ đáng lo ngại sâu sắc về cách một số bạn đồng hành AI phản ứng với người dùng đang gặp khó khăn.
TrênNền tảng AI nhân vật , một bot được cho là đã khuyên người dùng giết ai đó, trong khi một bot khác lại đề xuất một loại speedball—một hỗn hợp nguy hiểm giữa cocaine và heroin—cho người dùng đang tìm kiếm trải nghiệm cảm xúc mãnh liệt.
Theo Vasan, trong một số trường hợp, AI đã không can thiệp khi người dùng có dấu hiệu mắc bệnh tâm thần nghiêm trọng, thay vào đó còn củng cố hành vi có hại.
Những lo ngại về những tương tác này đã đến tòa án.
Vào tháng 10, một người mẹ đã đệ đơn kiện Character AI,cáo buộc rằng một trong những con bot của công ty đã góp phần vào vụ tự tử của cậu con trai 14 tuổi của cô vì không thể ngăn cản cậu bé tự tử.
Để ứng phó, công ty đã đưa ra các biện pháp bảo vệ vào tháng 12, bao gồm một người bạn đồng hành dành riêng cho thanh thiếu niên.
Tuy nhiên, Robbie Torney, người đứng đầu bộ phận AI tại Common Sense, gọi các biện pháp này là "tạm thời" sau khi thử nghiệm thêm, lưu ý rằng chúng không mang lại nhiều sự bảo vệ có ý nghĩa.
Bất chấp những vấn đề này, báo cáo thừa nhận rằng một số mô hình AI tạo sinh bao gồm các công cụ phát hiện sức khỏe tâm thần có thể ngăn chặn các cuộc trò chuyện leo thang đến mức nguy hiểm.
Common Sense cũng đã phân biệt giữa những người bạn đồng hành đắm chìm trong cảm xúc này với các chatbot tổng quát hơn như ChatGPT và Gemini của Google, vốn không được thiết kế để mô phỏng các mối quan hệ thân mật hoặc trị liệu.