Nghiên cứu mới tiết lộ 75% sử dụng AI Chatbot để được tư vấn về cảm xúc
Các nhà nghiên cứu tại Đại học Waseda đã phát triển một công cụ mới để hiểu rõ hơn về cách mọi người hình thành sự gắn bó về mặt cảm xúc vớiTrí tuệ nhân tạo.
Nghiên cứu của họ cho thấy 75% người tham gia đã tìm kiếm lời khuyên về cảm xúc từ AI, trong khi 39% coi AI là sự hiện diện đáng tin cậy trong cuộc sống của họ.
Dưới sự dẫn dắt của cộng tác viên nghiên cứu Fan Yang và Giáo sư Atsushi Oshio, nhóm nghiên cứu đã giới thiệu Thang đo trải nghiệm trong mối quan hệ giữa con người và AI (EHARS) sau hai nghiên cứu thí điểm và một cuộc khảo sát chính thức, với kết quả được công bố trên tạp chí Current Psychology.
Nghiên cứu xác định hai phong cách gắn bó giống con người đối với AI—lo lắng gắn bó và tránh gắn bó.
Những người có mức độ lo lắng gắn bó cao khao khát sự hỗ trợ về mặt cảm xúc và sợ những phản ứng không thỏa đáng, trong khi những người có mức độ né tránh cao lại không thoải mái với sự gần gũi và thích giữ khoảng cách về mặt cảm xúc với AI.
Người giải thích:
"Là những nhà nghiên cứu về tâm lý xã hội và gắn bó, chúng tôi từ lâu đã quan tâm đến cách mọi người hình thành mối liên kết cảm xúc. Trong những năm gần đây, AI tạo ra như ChatGPT đã trở nên mạnh mẽ và thông minh hơn, không chỉ cung cấp hỗ trợ thông tin mà còn mang lại cảm giác an toàn."
Trong số 242 người Trung Quốc tham gia khảo sát, 108 người đã hoàn thành đánh giá EHARS đầy đủ.
Ông bày tỏ:
"Hiện nay, vẫn còn thiếu nghiên cứu thực nghiệm về cả quá trình hình thành và hậu quả của việc gắn bó với AI, khiến việc đưa ra kết luận chắc chắn trở nên khó khăn."
Kết quả cho thấy rằngsự gắn bó cao hơn Sự lo lắng có liên quan đến lòng tự trọng thấp hơn, trong khi sự né tránh có liên quan đến sự hoài nghi đối với AI và việc sử dụng ít thường xuyên hơn.
Về những rủi ro về mặt đạo đức của việc sử dụng AI theo cảm xúc, Yang lưu ý rằng tác động của các hệ thống này phụ thuộc nhiều vào ý định của nhà phát triển cũng như kỳ vọng của người dùng, điều này nhấn mạnh đến nhu cầu thiết kế chu đáo và sử dụng có trách nhiệm.
Yand lưu ý:
"Chúng (các chatbot AI) có khả năng thúc đẩy hạnh phúc và giảm bớt sự cô đơn, nhưng cũng có khả năng gây hại. Tác động của chúng phụ thuộc phần lớn vào cách chúng được thiết kế và cách mọi người lựa chọn tương tác với chúng."
Khi sự thoải mái trở thành một cái bẫy: Người dùng bị ràng buộc về mặt cảm xúc có thể bị AI khai thác như thế nào
Yang cảnh báo rằng những cá nhân dễ bị tổn thương về mặt cảm xúc có thể có nguy cơ bị các nền tảng AI lợi dụng sự gắn bó của người dùng với chatbot khai thác.
Như đã nêu:
“Một mối quan tâm lớn là nguy cơ cá nhân hình thành sự gắn bó về mặt cảm xúc với AI, điều này có thể dẫn đến chi tiêu tài chính không hợp lý cho các hệ thống này. Hơn nữa, việc đình chỉ đột ngột một dịch vụ AI cụ thể có thể dẫn đến đau khổ về mặt cảm xúc, gợi lên những trải nghiệm tương tự như lo lắng khi xa cách hoặc đau buồn—những phản ứng thường liên quan đến việc mất đi một hình mẫu gắn bó có ý nghĩa.”
Thêm vào:
“Theo quan điểm của tôi, việc phát triển và triển khai các hệ thống AI đòi hỏi sự giám sát nghiêm ngặt về mặt đạo đức.”
Trong khi Trí tuệ nhân tạo không thể bỏ rơi người dùng theo cách mà con người có thể làm—một yếu tố về mặt lý thuyết có thể làm giảm lo lắng—nghiên cứu vẫn ghi nhận mức độ lo lắng đáng kể liên quan đến AI trong số những người tham gia.
Điều thú vị là mối liên kết tình cảm với AI có vẻ linh hoạt hơn so với mối liên kết truyền thống giữa con người.
Điều cần lưu ý:
"Sự lo lắng về sự gắn bó với AI có thể ít nhất một phần phản ánh sự lo lắng về sự gắn bó giữa các cá nhân. "Ngoài ra, sự lo lắng liên quan đến sự gắn bó với AI có thể bắt nguồn từ sự không chắc chắn về tính xác thực của những cảm xúc, tình cảm và sự đồng cảm được thể hiện bởi các hệ thống này, làm dấy lên câu hỏi liệu những phản ứng như vậy có chân thực hay chỉ là sự mô phỏng."
Thang đo Trải nghiệm trong Mối quan hệ giữa Con người và AI (EHARS) của nhóm cho thấy độ tin cậy kiểm tra lại là 0,69 trong khoảng thời gian một tháng, điều này cho thấy phong cách gắn bó có thể thay đổi dễ dàng hơn trong các tương tác AI.
Yang cho rằng sự thay đổi này là do sự phát triển nhanh chóng của công nghệ AI trong thời gian nghiên cứu.
Tuy nhiên, góc nhìn sâu sắc hơn thì rất rõ ràng: ngay cả khi tương tác với máy móc, con người vẫn mang theo những khuôn khổ tâm lý sâu sắc của con người.
Điều quan trọng là các nhà nghiên cứu đã làm rõ rằng những phát hiện này không chứng minh rằng người dùng đang hình thành mối quan hệ tình cảm thực sự với AI, mà đúng hơn là các mô hình được sử dụng để nghiên cứu sự gắn bó của con người vẫn có thể giúp giải thích cách mọi người tương tác với các tác nhân nhân tạo.
Những hiểu biết sâu sắc như vậy có thể giúp các nhà phát triển và nhà tâm lý học thiết kế các hệ thống AI phản ứng tốt hơn với hồ sơ cảm xúc của người dùng.
Ví dụ, các công cụ hỗ trợ cô đơn hoặc sức khỏe tâm thầnchatbot có thể điều chỉnh các tương tác bằng cách cung cấp sự trấn an về mặt cảm xúc cho những người có mức độ lo lắng về sự gắn bó cao hoặc duy trì giọng điệu trung lập hơn cho những người dùng có thái độ né tránh.
Nghiên cứu chỉ khảo sát những người tham gia là người Trung Quốc này cũng đặt ra câu hỏi về vai trò của văn hóa trong việc hình thành phản ứng cảm xúc với AI.
Yang thừa nhận nhu cầu nghiên cứu đa văn hóa rộng hơn, lưu ý rằng dữ liệu hiện tại là không đủ để đưa ra kết luận về sự khác biệt về văn hóa trong sự gắn bó với AI.
Ông bày tỏ:
"Hiện nay, vẫn còn thiếu nghiên cứu thực nghiệm về cả quá trình hình thành và hậu quả của việc gắn bó với AI, khiến việc đưa ra kết luận chắc chắn trở nên khó khăn."
Nhìn về phía trước, nhóm nghiên cứu có kế hoạch tìm hiểu cách sử dụng AI ảnh hưởng đến khả năng điều hòa cảm xúc, sự hài lòng trong cuộc sống và hạnh phúc xã hội theo thời gian.
Yang nhấn mạnh rằng việc điều hướng ranh giới giữa sự tham gia lành mạnh vào AI và sự phụ thuộc quá mức về mặt cảm xúc sẽ vẫn là một thách thức đang phát triển - một thách thức đòi hỏi sự giám sát liên tục khi các hệ thống AI ngày càng được tích hợp vào cuộc sống hàng ngày.