Họ chỉ không thực sự quan tâm đến bạn - bởi vì họ là mã.
Các nhà nghiên cứu từ Đại học Waseda đã tạo ra một công cụ đo lường để đánh giá cách con người hình thành các mối liên kết cảm xúc với trí tuệ nhân tạo, phát hiện ra rằng 75% người tham gia nghiên cứu đã tìm đến AI để được tư vấn về mặt cảm xúc, trong khi 39% coi AI như một sự hiện diện liên tục và đáng tin cậy trong cuộc sống của họ.
Nhóm nghiên cứu, do Nghiên cứu viên Fan Yang và Giáo sư Atsushi Oshio từ Khoa Văn học, Nghệ thuật và Khoa học dẫn đầu, đã phát triển Thang đo Trải nghiệm trong Mối quan hệ Người-AI (EHARS) sau khi tiến hành hai nghiên cứu thử nghiệm và một nghiên cứu chính thức. Các phát hiện của họ đã được xuất bản trong tạp chí "Tâm lý học Hiện đại".
Nghiên cứu đã xác định hai chiều khác biệt của sự gắn kết của con người với AI phản ánh các mối quan hệ con người truyền thống: lo lắng về sự gắn kết và né tránh sự gắn kết.
Những người có mức độ lo lắng về sự gắn kết với AI cao cần sự trấn an về mặt cảm xúc và lo sợ nhận được phản hồi không đầy đủ từ các hệ thống AI. Những người có mức độ né tránh sự gắn kết cao được đặc trưng bởi sự khó chịu khi gần gũi và thích giữ khoảng cách về mặt cảm xúc với AI.
"Là các nhà nghiên cứu về sự gắn kết và tâm lý xã hội, chúng tôi đã lâu quan tâm đến cách mọi người hình thành các mối liên kết cảm xúc," Yang nói với Decrypt. "Trong những năm gần đây, trí tuệ nhân tạo sinh thành như ChatGPT đã trở nên ngày càng mạnh mẽ và thông minh hơn, không chỉ cung cấp hỗ trợ thông tin mà còn mang lại cảm giác an toàn."
Nghiên cứu đã kiểm tra 242 người tham gia người Trung Quốc, với 108 người (25 nam và 83 nữ) hoàn thành đánh giá EHARS đầy đủ. Các nhà nghiên cứu nhận thấy rằng lo lắng về sự gắn kết với AI có tương quan âm với lòng tự trọng, trong khi né tránh sự gắn kết được liên kết với thái độ tiêu cực đối với AI và việc sử dụng hệ thống AI ít thường xuyên hơn.
Khi được hỏi về các hàm ý đạo đức của các công ty AI có thể khai thác các mẫu gắn kết, Yang nói với Decrypt rằng tác động của các hệ thống AI không được xác định trước, và thường phụ thuộc vào kỳ vọng của cả nhà phát triển và người dùng.
"Chúng (chatbot AI) có khả năng thúc đẩy sự khỏe mạnh và giảm bớt sự cô đơn, nhưng cũng có khả năng gây hại," Yang nói. "Tác động của chúng phần lớn phụ thuộc vào cách chúng được thiết kế và cách các cá nhân lựa chọn tương tác với chúng."
Yang cảnh báo rằng các nền tảng AI không có đạo đức có thể khai thác những người dễ bị tổn thương, những người có xu hướng gắn kết quá mức về mặt cảm xúc với chatbot
"Một mối lo ngại chính là nguy cơ các cá nhân hình thành các mối gắn kết cảm xúc với AI, điều này có thể dẫn đến chi tiêu tài chính không hợp lý cho các hệ thống này," Yang nói. "Hơn nữa, việc đình chỉ đột ngột một dịch vụ AI cụ thể có thể gây ra sự đau khổ về mặt cảm xúc, gợi lên những trải nghiệm giống như lo lắng về sự chia ly hoặc sự mất mát - những phản ứng thường được liên kết với việc mất đi một nhân vật gắn kết có ý nghĩa."
Yang nói: "Từ quan điểm của tôi, việc phát triển và triển khai các hệ thống AI đòi hỏi sự xem xét đạo đức nghiêm túc."
Nhóm nghiên cứu lưu ý rằng không giống như các nhân vật gắn kết con người, AI không thể chủ động từ bỏ người dùng, về lý thuyết điều này sẽ giảm bớt sự lo lắng. Tuy nhiên, họ vẫn tìm thấy mức độ lo lắng về sự gắn kết với AI có ý nghĩa giữa những người tham gia.
"Lo lắng về sự gắn kết với AI có thể ít nhất một phần phản ánh lo lắng về sự gắn kết giữa các cá nhân," Yang nói. "Ngoài ra, lo lắng liên quan đến sự gắn kết với AI có thể xuất phát từ sự không chắc chắn về tính xác thực của các cảm xúc, tình cảm và sự đồng cảm được thể hiện bởi các hệ thống này, đặt ra câu hỏi về việc liệu các phản hồi như vậy có thực sự hay chỉ là mô phỏng."
Độ tin cậy kiểm tra lại của thang đo là 0,69 trong một khoảng thời gian một tháng, có nghĩa là các kiểu gắn kết với AI có thể linh hoạt hơn các mẫu gắn kết con người truyền thống. Yang cho rằng sự biến động này là do bối cảnh AI đang thay đổi nhanh chóng trong thời gian nghiên cứu; chúng tôi cho rằng đó là do con người vốn dĩ như vậy, và kỳ lạ.
Các nhà nghiên cứu nhấn mạnh rằng các phát hiện của họ không nhất thiết có nghĩa là con người đang hình thành các mối gắn kết cảm xúc thực sự với các hệ thống AI, mà là các khuôn khổ tâm lý được sử dụng cho các mối quan hệ con người cũng có thể áp dụng cho các tương tác giữa người và AI. Nói cách khác, các mô hình và thang đo như thang đo được Yang và nhóm của anh phát triển là những công cụ hữu ích để hiểu và phân loại hành vi con người, ngay cả khi "đối tác" là một thực thể nhân tạo.
Tính đặc thù văn hóa của nghiên cứu cũng rất quan trọng để chú ý, vì tất cả những người tham gia đều là công dân Trung Quốc. Khi được hỏi về cách các sự khác biệt văn hóa có thể ảnh hưởng đến các phát hiện của nghiên cứu, Yang thừa nhận với Decrypt rằng "với nghiên cứu hạn chế trong lĩnh vực mới nổi này, hiện tại không có bằng chứng vững chắc để khẳng định hoặc bác bỏ sự tồn tại của các biến thể văn hóa trong cách mọi người hình thành các mối liên kết cảm xúc với AI".
EHARS có thể được các nhà phát triển và nhà tâm lý học sử dụng để đánh giá xu hướng cảm xúc đối với AI và điều chỉnh các chiến lược tương tác cho phù hợp. Các nhà nghiên cứu gợi ý rằng các chatbot AI được sử dụng trong các can thiệp về sự cô đơn hoặc ứng dụng trị liệu có thể được điều chỉnh theo nhu cầu cảm xúc của từng người dùng, cung cấp các phản hồi đồng cảm hơn cho những người dùng có mức độ lo lắng về sự gắn kết cao hoặc duy trì khoảng cách tôn trọng cho những người dùng có xu hướng né tránh.
Yang lưu ý rằng việc phân biệt giữa sự tham gia AI có lợi và sự phụ thuộc cảm xúc có vấn đề không phải là một khoa học chính xác.
"Hiện tại, còn thiếu nghiên cứu thực nghiệm về cả quá trình hình thành và hậu quả của sự gắn kết với AI, khiến việc rút ra kết luận chắc chắn là khó khăn," anh nói. Nhóm nghiên cứu dự định tiến hành các nghiên cứu sâu hơn, kiểm tra các yếu tố như điều chỉnh cảm xúc, sự hài lòng với cuộc sống và chức năng xã hội liên quan đến việc sử dụng AI theo thời gian.



