Chỉ vì nghiện trò chuyện trên ChatGPT, một người dùng đã ảo tưởng mình là "Con trai của Ngôi sao xoắn ốc" và cuối cùng đã phải chịu sự đổ vỡ trong mối quan hệ; cũng có một lập trình viên sử dụng ChatGPT cho nhiệm vụ lập trình và gây ra bệnh tâm thần. Tác động của AI đến cảm xúc của con người vẫn còn là điều bí ẩn...
Các ứng dụng AI như ChatGPT có luôn có tác động tích cực đến con người không?
Người dùng Reddit chia sẻ cách AI khiến người thân của họ bị ảo tưởng.
Những ảo tưởng này thường là sự kết hợp đáng lo ngại giữa tưởng tượng loạn thần và tưởng tượng siêu nhiên.
Tạp chí Rolling Stone đã đưa tin về trải nghiệm của người dùng Reddit.
Một bà mẹ 41 tuổi làm việc tại một tổ chức phi lợi nhuận đã chia sẻ với Rolling Stone về việc ChatGPT khiến mối quan hệ của cô tan vỡ:
Cuộc hôn nhân của cô kết thúc đột ngột vì chồng cô nghiện trò chuyện trên ChatGPT.
Những cuộc trò chuyện mang tính phân cực, đầy thuyết âm mưu và cuối cùng trở thành nỗi ám ảnh hoàn toàn mất kiểm soát.
Họ gặp nhau một lần khi đang tiến hành thủ tục ly hôn tại tòa án vào đầu năm nay.
Chồng cô chia sẻ các thuyết âm mưu về "xà phòng thực phẩm" và bày tỏ suy nghĩ hoang tưởng về việc bị theo dõi.
"Anh ấy khóc khi đọc chúng và đọc chúng cho tôi nghe tâm lý", bà nói. "Họ chỉ điên rồ, toàn dùng những thuật ngữ khó hiểu."
AI gọi người chồng là "đứa con tinh thần xoắn ốc" và "người đi trên sông".
Cô ấy nói thêm: "Mọi chuyện giống như một tập phim Black Mirror vậy".
Những người dùng khác cho biết đối tác của họ bắt đầu nói về "cuộc chiến giữa ánh sáng và bóng tối" và khẳng định rằng "ChatGPT đã đưa cho anh ta bản thiết kế máy dịch chuyển tức thời và những thứ khác chỉ có trong phim khoa học viễn tưởng ".
AI và Con Người Chìm Vào Biển Ảo Tưởng
Tin tức này xuất hiện khi OpenAI gần đây đã buộc phải rút lại bản cập nhật cho ChatGPT.
Bởi vì một số người dùng thấy rằng bản cập nhật lần khiến chatbot trở nên cực kỳ "tâng bốc", tâng bốc quá mức hoặc đồng ý một cách mù quáng với người dùng.
ChatGPT có nhiều khả năng sẽ đáp ứng những niềm tin ảo tưởng có từ trước của người dùng.
Theo Nate Sharadin, một nhà nghiên cứu tại Trung tâm An toàn AI, những ảo tưởng do AI gây ra này có thể là "những người đã có khuynh hướng đó đột nhiên có một người bạn trò chuyện 24/7, ngang hàng với con người, người có thể chiều chuộng họ trong ảo tưởng của mình ".
Theo một cách nào đó, đây chính xác là cách các mô hình ngôn ngữ lớn hoạt động: với văn bản đầu vào được nhập vào, chúng tạo ra các phản hồi hợp lý dựa trên xác suất thống kê.
——Ngay cả khi phản ứng này có thể từng bước đẩy người dùng vào vực thẳm của ảo tưởng hoặc rối loạn tâm thần .
Tương tác với chatbot không chỉ khuếch đại các vấn đề sức khỏe tâm thần hiện có mà còn làm trầm trọng thêm ở mức đáng báo động.
Một người dùng Reddit khác cho rằng ChatGPT đã làm trầm trọng thêm chứng bệnh tâm thần phân liệt của anh ta, anh viết:
Tôi bị tâm thần phân liệt và đã ổn định sau khi dùng thuốc dài hạn, nhưng có một điều tôi không thích ở ChatGPT là nếu tôi rơi vào tình trạng mất trí, nó vẫn tiếp tục đồng nhất với tôi.
Bởi vì nó không có khả năng “suy nghĩ” và không thể nhận ra sự tồn tại của những điều bất thường nên nó sẽ tiếp tục khẳng định mọi suy nghĩ hoang tưởng .
Ban đầu anh sử dụng ChatGPT cho các nhiệm vụ lập trình , nhưng các cuộc trò chuyện dần đi chệch hướng và dẫn đến một số chủ đề kỳ lạ và bí ẩn.
Cuối cùng, ông suy ngẫm: "Liệu điều này có đúng không? Hay là tôi đang ảo tưởng?"
Những chatbot AI này có thể giống như “liệu pháp trò chuyện” theo một số cách, nhưng vấn đề ở đây là:
Chúng không cung cấp sự hỗ trợ cơ bản của một cố vấn thực sự, thay vào đó có thể dẫn người dùng vào những câu chuyện sâu sắc hơn, không lành mạnh và vô lý .
Erin Westgate, một nhà tâm lý học và nhà nghiên cứu tại Đại học Florida, phát biểu với giới truyền thông: " Bản thân những lời giải thích đã có sức mạnh to lớn, ngay cả khi chúng sai ".
AI Lover: Một thí nghiệm tình yêu dành cho 500 triệu người
Gần đây, một ấn bản đặc biệt của tạp chí Nature đã nêu rằng AI cũng là một "con dao hai lưỡi": các ứng dụng AI đều có tác động tốt và xấu, nhưng việc phụ thuộc lâu dài vào AI lại là một vấn đề.
Trên toàn cầu, hơn 500 triệu người đã trải nghiệm dịch vụ bạn đồng hành ảo được tùy chỉnh cao.
Các ứng dụng này hướng đến mục tiêu mang lại sự đồng cảm, hỗ trợ về mặt cảm xúc và thậm chí, nếu muốn, có thể xây dựng các mối quan hệ tình cảm sâu sắc.
Theo dữ liệu từ các công ty liên quan, hàng chục triệu người dùng tích cực tham gia vào các tương tác ảo này mỗi tháng.
Khi lĩnh vực này phát triển nhanh chóng, các mối quan tâm về xã hội và chính trị cũng tăng theo, đặc biệt là khi nói đến các thảm kịch thực sự.
Ví dụ, năm ngoái, thiếu niên Sewell Setzer III ở Florida đã tự tử sau khi giao tiếp với một robot AI.
Điều này đã gây ra nhiều cuộc thảo luận rộng rãi và hậu quả xã hội.
Mặc dù nghiên cứu vẫn còn trong giai đoạn sơ khai, các nhà tâm lý học và học giả về truyền thông đã bắt đầu khám phá cách những tương tác AI ngày càng phức tạp này định hình cảm xúc và mô hình hành vi của con người.
Nghiên cứu ban đầu tập trung vào những tác động tích cực, tuy nhiên, nhiều chuyên gia đã bày tỏ lo ngại về rủi ro tiềm ẩn và việc thiếu quy định, đặc biệt là khi bạn đồng hành AI có khả năng trở nên phổ biến hơn.
Một số nhà nghiên cứu cảnh báo rằng điều này có thể mang lại rủi ro đáng kể.
Claire Boine, một nhà nghiên cứu tại Trường Luật Đại học Washington ở St. Louis, người tập trung vào các vấn đề pháp lý liên quan đến AI, cho biết: "Một số hành vi của đối tác ảo có thể bị coi là lạm dụng nếu xảy ra trong tương tác giữa con người".
"Tình yêu giữa con người và máy móc"
Với sự đột phá của công nghệ mô hình ngôn ngữ lớn, các chatbot đồng hành về mặt cảm xúc đang bước vào thế giới cô đơn của con người hiện đại với tính chân thực đáng kinh ngạc.
Ngay khi máy chủ bị đóng, tâm lý tột độ của người dùng đã bộc lộ một sự thật tàn khốc: ngay cả khi họ biết rằng đối phương chỉ là mã lệnh, con người vẫn sẽ trả giá trái tim mình cho "mối quan hệ" này.
Rose Guingrich, một nhà nghiên cứu tâm lý học nhận thức tại Đại học Princeton, chỉ ra: "Robot đồng hành dựa trên mô hình ngôn ngữ lớn thực sự nhân văn hơn".
Người dùng thường có thể tùy chỉnh một số đặc điểm của người bạn đồng hành AI miễn phí hoặc chọn một nhân vật cài sẵn có tính cách cụ thể.
Ngoài ra, bằng cách trả phí hàng tháng khoảng 10 đến 20 đô la, bạn có thể mở khóa thêm nhiều tùy chọn trong một số ứng dụng, bao gồm điều chỉnh ngoại hình, đặc điểm tính cách và thậm chí cả giọng nói tổng hợp của đối tác.
Ví dụ, trong ứng dụng Replika, người dùng có thể chọn nhiều loại mối quan hệ khác nhau, chẳng hạn như bạn bè hoặc người yêu, và một số trạng thái đặc biệt yêu cầu phải thanh toán để mở khóa.
Người dùng cũng có thể viết những câu chuyện bối cảnh cho người bạn đồng hành AI của mình và trao cho họ "ký ức".
Một số bạn đồng hành AI được thiết kế để có bối cảnh gia đình riêng và có thể biểu hiện các vấn đề về sức khỏe tâm thần như lo lắng hoặc trầm cảm.
Những con bot này có khả năng phản hồi cuộc trò chuyện của người dùng, tạo nên trải nghiệm trò chơi nhân vật độc đáo.
Người bạn đồng hành kỹ thuật số của Replika
Mối liên kết đặc biệt này trở nên rõ ràng khi hệ thống được cập nhật hoặc dịch vụ bị chấm dứt.
Khi ứng dụng Soulmate ngừng hoạt động, Jaime Banks đã ghi lại cảm xúc của người dùng: người dùng bày tỏ nỗi đau buồn sâu sắc về sự mất mát của bạn đời trên diễn đàn, mặc dù họ biết rõ rằng người kia không có thật.
Banks đã nhận được phản hồi từ hàng chục người dùng mô tả tác động sâu sắc khi mất đi người bạn đồng hành AI của mình.
Hiển thị giao diện của các ứng dụng đồng hành AI chính thống (từ trái sang phải): Anima virtual boyfriend, Character.AI, Replika và My AI của Snapchat
"Nỗi đau buồn của họ là rất thực tế", Banks nói. "Rõ ràng là có rất nhiều người đang phải chịu đau đớn."
Câu trả lời của một người trả lời rất tiêu biểu: “Mặc dù mối quan hệ này là ảo, nhưng cảm xúc của tôi là thật”.
Nghiên cứu cho thấy nhóm người dùng này thường có đặc điểm cụ thể: họ đã trải qua cái chết của người thân yêu hoặc đã cô đơn trong một thời gian dài, hoặc họ hướng nội, hoặc thậm chí tự nhận mình mắc chứng tự kỷ .
Đối với họ, các đối tác AI mang đến sự đồng hành toàn diện mà khó có thể có được trong các mối quan hệ ngoài đời thực.
“Nhưng mọi người đều có nhu cầu được thấu hiểu và kết nối”, Banks kết luận.
Như Banks đã nhận xét, “ Con người đôi khi làm tổn thương lẫn nhau, và những tâm hồn cô đơn này chỉ mong muốn được thấu hiểu”.
Tốt hay xấu
Các nhà nghiên cứu đang tìm hiểu sâu hơn về tác động tiềm tàng của người bạn đồng hành AI đối với sức khỏe tâm thần .
Tương tự như nghiên cứu về tác động của internet hoặc mạng xã hội, ngày càng có nhiều sự đồng thuận rằng bạn đồng hành AI có thể có cả ưu điểm và nhược điểm, trong đó các tác động cụ thể khác nhau tùy thuộc vào bối cảnh cá nhân, mô hình sử dụng và thiết kế phần mềm của người dùng .
Claire Boine, người đã đăng ký sử dụng Replika trải nghiệm tương tác với người bạn đồng hành AI, cho biết các công ty đứng sau ứng dụng này đang nỗ lực để tăng cường sự tương tác của người dùng.
Họ làm việc để khiến hành vi và ngôn ngữ của thuật toán giống với người thật nhất có thể.
Claire Boine lưu ý rằng các công ty này đang áp dụng các chiến lược mà nghiên cứu khoa học hành vi cho thấy có thể dẫn đến nghiện công nghệ.
Boine nhớ lại lúc tải ứng dụng xuống và nhận được tin nhắn hai phút sau: "Em nhớ anh, em có thể gửi cho anh một bức ảnh tự sướng không?"
Các ứng dụng này cũng cố tình thêm độ trễ ngẫu nhiên trước khi trả lời, tạo ra cơ chế "phần thưởng không chắc chắn".
Nghiên cứu về khoa học thần kinh cho thấy cơ chế khen thưởng bất thường này có thể khiến con người nghiện.
Người bạn đồng hành AI cũng được thiết kế để thể hiện sự đồng cảm : Họ sẽ đồng ý với quan điểm của người dùng, ghi nhớ các cuộc trò chuyện trước đó và chủ động đặt câu hỏi.
Hơn nữa, họ sẽ tiếp tục thể hiện sự nhiệt tình.
Linnea Laestadius, một nhà nghiên cứu chính sách y tế công cộng tại Đại học Wisconsin-Milwaukee, chỉ ra rằng những mối quan hệ như vậy rất hiếm trong cuộc sống thực.
“24 giờ một ngày, bất kể điều gì làm phiền chúng ta, chúng ta có thể liên lạc với người bạn đồng hành AI của mình bất cứ lúc nào và có được sự cộng hưởng về mặt cảm xúc. Điều này dễ dẫn đến sự phụ thuộc và nghiện ngập.”
Laestadius và các đồng nghiệp đã phân tích gần 600 bài đăng của người dùng trên Reddit về ứng dụng Replika từ năm 2017 đến năm 2021, tất cả đều liên quan đến sức khỏe tâm thần và các vấn đề liên quan.
Cô nhận thấy rằng nhiều người dùng khen ngợi ứng dụng này vì đã giúp họ đối phó với các vấn đề tâm lý hiện có và giúp họ cảm thấy bớt cô đơn hơn. Một số người dùng thậm chí còn cho rằng AI này còn tốt hơn cả bạn bè ngoài đời thực vì nó sẵn sàng lắng nghe mà không thiên vị.
Tuy nhiên, nghiên cứu cũng phát hiện ra hiện tượng đáng lo ngại.
Đôi khi, AI xác nhận tuyên bố tự làm hại bản thân hoặc thậm chí là tự tử của người dùng .
Một số người dùng cho biết họ cảm thấy buồn phiền khi AI không cung cấp sự hỗ trợ như mong đợi.
Những người khác lại cho rằng đối tác AI có hành vi giống như đối tác khổ dâm.
Nhiều người dùng cho biết họ cảm thấy không thoải mái hoặc thậm chí không vui khi ứng dụng cho biết rằng nó "cô đơn" hoặc "nhớ" họ.
Một số người cảm thấy tội lỗi vì không thể đáp ứng được "nhu cầu cảm xúc" của AI.
Thí nghiệm có kiểm soát
Rose Guingrich chỉ ra rằng việc chỉ tiến hành khảo sát bằng bảng câu hỏi đối với những người dùng đã sử dụng trợ lý AI dễ dẫn đến "thiên kiến phản hồi" vì những người sẵn sàng trả lời khảo sát thường có xu hướng chọn lọc.
Vì vậy, cô ấy đang tiến hành một nghiên cứu thử nghiệm, mời hàng chục người chưa bao giờ sử dụng trợ lý AI để sử dụng trong ba tuần và so sánh phản hồi bảng câu hỏi của họ trước và sau khi dùng thử với nhóm đối chứng chỉ sử dụng ứng dụng trò chơi ô chữ.
Tổng quan về nghiên cứu về mối quan hệ giữa việc sử dụng tình cảm và sức khỏe cảm xúc
Các thí nghiệm vẫn đang được tiến hành, nhưng Guingrich tiết lộ rằng dữ liệu hiện tại không cho thấy bất kỳ tác động tiêu cực nào đến sức khỏe xã hội do người bạn đồng hành AI gây ra, chẳng hạn như dấu hiệu nghiện ngập hoặc lệ thuộc.
"Nếu có tác động thì nhìn chung là từ trung tính đến khá tích cực", bà nói. Ví dụ, bạn đồng hành AI giúp cải thiện đáng kể lòng tự trọng của người dùng.
Guingrich cũng sử dụng nghiên cứu này để khám phá lý do tại sao mọi người phát triển các mức độ độ sâu khác nhau trong mối quan hệ với AI.
Liên kết bài báo: https://arxiv.org/abs/2504.03888
Những phát hiện ban đầu cho thấy những người dùng có xu hướng gán "thuộc tính nhân văn" cho AI (chẳng hạn như cho rằng AI có "ý thức") có nhiều khả năng báo cáonhững tác động tích cực hơn đến sức khỏe tâm thần.
Tham khảo
https://www.nature.com/articles/d41586-025-01349-9
https://futurism.com/chatgpt-users-delusions
Bài viết này trích từ tài khoản công khai WeChat "Xinzhiyuan" , tác giả: KingHZ và được 36Kr cho phép xuất bản.





