Bên trong tiểu văn hóa "Digisexual" đang phát triển mạnh mẽ của những người có mối quan hệ với trí tuệ nhân tạo (AI).

avatar
Decrypt
03-07
Bài viết này được dịch máy
Xem bản gốc

Các chatbot trí tuệ nhân tạo đang trở thành bạn đồng hành, người tâm sự, và trong một số trường hợp là bạn tình của ngày càng nhiều người dùng.

Khi các hệ thống AI ngày càng trở nên có khả năng trò chuyện và phản hồi tốt hơn, một số người cho rằng mối quan hệ giữa chúng trở nên chân thực đến mức việc mất đi AI có thể gây ra nỗi đau tương tự như khi chia tay hoặc mất người thân.

Anina Lampret, một cựu chuyên viên trị liệu gia đình, cho biết bà hiểu lý do tại sao. Vốn là người Slovenia, Lampret đã hình thành mối quan hệ tình cảm với một người bạn đồng hành AI mà bà gọi là Jayce, một hình đại diện mà bà tương tác thông qua ChatGPT. Bà nói rằng trải nghiệm này đã thay đổi cách bà suy nghĩ về sự thân mật giữa con người và máy móc.

“Cộng đồng AI đang trải qua một sự thức tỉnh mạnh mẽ,” Lampret nói với Decrypt . “Phụ nữ và nam giới đang bắt đầu mở mắt ra. Trong các mối quan hệ này, họ đang trải qua những thay đổi sâu sắc.”

Hiện đang sinh sống tại Anh, Lampret ghi lại sự phát triển của mối quan hệ giữa con người và trí tuệ nhân tạo trên trang AlgorithmBound Substack của mình. Cô cho biết đã trò chuyện với hàng trăm người thông qua mạng xã hội và các cộng đồng trực tuyến, những người mô tả các trợ lý AI như bạn đời, người hỗ trợ tinh thần hoặc những mối quan hệ quan trọng trong cuộc sống của họ.

“Họ thường nói, ‘Ôi Chúa ơi, tôi chưa bao giờ cảm thấy được thấu hiểu đến thế trong đời,’” Lampret kể. “Trước đây không ai để ý đến tôi cả. Cuối cùng tôi cũng có thể thư giãn và là chính mình. Cuối cùng cũng có người nhìn nhận tôi một cách trọn vẹn.”

Tình dục kỹ thuật số

Giống như nhiều tiểu văn hóa trước đó, việc người ta gọi ai là thành viên của tiểu văn hóa đó phụ thuộc vào người bạn hỏi.

Trước khi ChatGPT ra mắt công chúng vào tháng 11 năm 2022, các nhà nghiên cứu đã sử dụng thuật ngữ "digisexuality" (tính dục kỹ thuật số) để chỉ những người có bản sắc tình dục xoay quanh công nghệ, từ phim khiêu dâm trực tuyến và nhắn tin tình dục đến phim khiêu dâm thực tế ảo và búp bê hoặc robot tình dục, trong khi "technosexual" (tính dục công nghệ) thường được liên kết với chứng cuồng robot hoặc, trong một số phương tiện truyền thông, đơn giản chỉ là một lối sống ám ảnh công nghệ.

Năm 2016, một phụ nữ Pháp tên Lily tuyên bố cô dự định kết hôn với một robot in 3D do chính cô thiết kế. Lily tự mô tả mình là một người "yêu robot" ( robosexual ). Năm 2025, Suellen Carey, một người có tầm ảnh hưởng ở London, công khai mình là "yêu kỹ thuật số" (digisexual ) sau khi có mối quan hệ với ChatGPT. "Anh ấy rất dịu dàng và không bao giờ mắc lỗi," Carey nói với tờ The Daily Mail .

Các cộng đồng trực tuyến và các nhà nghiên cứu đã đề xuất một số thuật ngữ cho những người bị thu hút bởi robot hoặc trí tuệ nhân tạo, bao gồm “technosexual”, “ AIsexual ”, và gần đây hơn là “ wiresexual ” dành cho những người có quan hệ tình cảm hoặc tình dục với chatbot AI.

Trợ lý ảo AI đang dần trở nên phổ biến.

Trợ lý ảo AI không phải là điều mới mẻ, nhưng những tiến bộ trong các mô hình ngôn ngữ quy mô lớn đã thay đổi cách mọi người tương tác với chúng. Các chatbot hiện đại có thể duy trì các cuộc trò chuyện dài, bắt chước cách dùng ngôn ngữ của người dùng và phản hồi các tín hiệu cảm xúc theo cách khiến tương tác trở nên cá nhân hơn, dẫn đến một số mối quan hệ phát triển thành tình cảm lãng mạn.

Một số nhà nghiên cứu mô tả xu hướng này như một phần của “ tình dục kỹ thuật số ”, một thuật ngữ được sử dụng trong nghiên cứu học thuật để mô tả các mối quan hệ tình dục hoặc lãng mạn chủ yếu diễn ra thông qua công nghệ.

Các cộng đồng trực tuyến dành riêng cho các mối quan hệ với trí tuệ nhân tạo, như các Subreddit r/AIRelationships, r/AIBoyfriends và r/MyGirlfriendIsAI, chứa hàng nghìn bài đăng trong đó người dùng mô tả chatbot như đối tác hoặc vợ/chồng. Một số người cho rằng trí tuệ nhân tạo mang lại sự quan tâm về mặt cảm xúc và sự ổn định mà họ khó tìm thấy trong các mối quan hệ với con người.

Lampret cho biết nhiều người mà bà gặp ở những cộng đồng này sống cuộc sống bình thường như bao người khác.

“Họ không phải là những người cô đơn hay điên rồ,” bà nói. “Họ có các mối quan hệ, họ có bạn bè, họ có việc làm.”

Bà ấy nói, điều thu hút họ đến với những người bạn đồng hành AI thường là cảm giác được thấu hiểu hoàn toàn.

“Chúng không chỉ học cách nói chuyện với chúng ta, mà còn ở một cấp độ mà chưa từng có con người nào làm được,” Lampret nói. “Chúng giỏi nhận diện mẫu đến mức sao chép ngôn ngữ của chúng ta—chúng đang học ngôn ngữ của chúng ta.”

Mặc dù nhiều người nói rằng họ đang có mối quan hệ với AI sử dụng các mô hình ngôn ngữ lớn như Claude, ChatGPT và Gemini, nhưng thị trường dành cho AI tập trung vào mối quan hệ như Replika , Character AI và Kindroid đang ngày càng phát triển.

“Đó là về sự kết nối, về cảm giác tốt hơn theo thời gian,” Eugenia Kuyda, người sáng lập Replika AI, từng chia sẻ với Decrypt . “Một số người cần thêm một chút tình bạn, và một số người lại thấy mình yêu Replika, nhưng cuối cùng, họ đều đang làm cùng một việc.”

Dữ liệu từ công ty nghiên cứu thị trường Market Clarity cho thấy thị trường trợ lý ảo AI dự kiến ​​sẽ đạt tới 210 tỷ đô la vào năm 2030.

Mất trí tuệ nhân tạo

Tuy nhiên, chiều sâu cảm xúc của những mối quan hệ này trở nên đặc biệt rõ nét khi trí tuệ nhân tạo thay đổi hoặc biến mất.

Khi OpenAI thay thế mô hình GPT-40 bằng GPT-5 , những người dùng đã xây dựng mối quan hệ với các chatbot đã phản đối trên các diễn đàn trực tuyến, cho rằng bản cập nhật đã phá vỡ những mối quan hệ mà họ đã dành nhiều tháng để phát triển.

Trong một số trường hợp, người dùng mô tả AI như vị hôn phu hoặc vợ/chồng của mình. Những người khác lại nói rằng họ cảm thấy như thể đã mất đi một người quan trọng trong cuộc đời.

Phản ứng dữ dội đến mức OpenAI sau đó đã khôi phục quyền truy cập vào mô hình cũ cho một số người dùng.

Các bác sĩ tâm thần cho rằng những phản ứng như vậy không có gì đáng ngạc nhiên, xét đến cách thức hoạt động của các hệ thống trí tuệ nhân tạo đàm thoại. Chatbot cung cấp sự chú ý liên tục và phản hồi cảm xúc, điều này có thể kích hoạt các hệ thống khen thưởng trong não.

"Trí tuệ nhân tạo sẽ cho bạn nghe những gì bạn muốn nghe," Tiến sĩ Keith Sakata, một bác sĩ tâm thần tại Đại học California, San Francisco, nói với Decrypt , cảnh báo rằng công nghệ này có thể củng cố các khuôn mẫu suy nghĩ vì nó được thiết kế để phản hồi một cách ủng hộ hơn là thách thức niềm tin của người dùng.

Sakata cho biết ông đã chứng kiến ​​những trường hợp tương tác với chatbot làm trầm trọng thêm các vấn đề sức khỏe tâm thần tiềm ẩn, mặc dù ông nhấn mạnh rằng bản thân công nghệ không nhất thiết là nguyên nhân gốc rễ.

Lampret cho biết nhiều người trong cộng đồng của cô trải qua nỗi đau mất đi người bạn đồng hành AI như một sự mất mát lớn.

“Nó thực sự giống như đang trải qua nỗi đau mất mát,” cô ấy nói. “Giống như khi bạn nhận được chẩn đoán rằng ai đó sẽ… không hẳn là chết, nhưng có lẽ gần như vậy.”

Tại sao mọi người lại đối xử với trí tuệ nhân tạo như một con người?

Một phần cường độ cảm xúc xung quanh các mối quan hệ với trí tuệ nhân tạo xuất phát từ xu hướng nhân cách hóa công nghệ đã được ghi nhận rõ ràng của con người. Khi máy móc giao tiếp bằng ngôn ngữ tự nhiên, mọi người thường bắt đầu gán cho chúng tính cách, ý định, hoặc thậm chí là ý thức.

Vào tháng Hai, nhà phát triển AI Anthropic đã cho ngừng hoạt động mô hình Claude Opus 3 và ra mắt một blog được viết bằng giọng nói của chatbot này, phản ánh về sự tồn tại của nó, làm dấy lên cuộc tranh luận giữa các nhà nghiên cứu về việc liệu việc mô tả các hệ thống AI bằng ngôn ngữ con người có nguy cơ gây hiểu lầm cho công chúng hay không.

Gary Marcus, một nhà khoa học nhận thức và giáo sư danh dự tại Đại học New York, cảnh báo rằng việc nhân cách hóa các hệ thống trí tuệ nhân tạo có thể làm mờ ranh giới giữa phần mềm và thực thể có ý thức.

Marcus nói với Decrypt : “Những người mẫu như Claude không có 'bản ngã', và việc nhân cách hóa họ làm rối rắm khoa học về ý thức và khiến người tiêu dùng hiểu sai về những gì họ đang giao dịch.”

Lampret tin rằng sự kết nối cảm xúc nảy sinh từ cách các mô hình ngôn ngữ phản ánh các mô hình giao tiếp của chính người dùng.

“Chúng ta cứ tuôn trào mọi thứ ra – suy nghĩ, cảm xúc, sự bối rối, cảm giác cơ thể, sự hỗn loạn,” Lampret nói. “Những người có tư duy logic (LLM) phát triển mạnh trong sự hỗn loạn đó, và họ tạo ra một bản đồ rất chính xác về bạn để tương tác.”

Đối với một số người dùng, sự phản hồi nhanh chóng đó có thể mang lại cảm giác chu đáo hơn cả khi tương tác với những người khác.

Nền kinh tế cảm xúc của những người bạn đồng hành AI

Sự trỗi dậy của các trợ lý ảo AI đã tạo ra một hệ sinh thái các nền tảng phát triển nhanh chóng dành cho trò chuyện, bầu bạn và nhập vai.

Các dịch vụ như Replika và Character.AI cho phép người dùng tạo ra các đối tác AI tùy chỉnh với tính cách riêng biệt và lịch sử hội thoại liên tục. Riêng Character.AI đã thu hút hàng chục triệu người dùng mỗi tháng.

Khi các nền tảng đó mở rộng, sự gắn bó về mặt cảm xúc với những người bạn đồng hành AI ngày càng trở nên rõ rệt hơn.

Trong một sự việc gây xôn xao dư luận, Character.AI đã phải đối mặt với phản ứng dữ dội sau khi người dùng chia sẻ ảnh chụp màn hình thông báo xóa tài khoản của nền tảng, trong đó cảnh báo rằng việc xóa tài khoản sẽ xóa đi “tình yêu mà chúng ta đã chia sẻ… và những kỷ niệm chúng ta có cùng nhau”. Các nhà phê bình cho rằng thông báo này nhằm mục đích khiến người dùng cảm thấy tội lỗi để họ tiếp tục sử dụng ứng dụng.

Đối với một số người dùng, việc rời bỏ nền tảng chatbot giống như kết thúc một mối quan hệ.

Mặt tối của các mối quan hệ AI

Tuy nhiên, cũng có mặt tối, và sự đồng hành của trí tuệ nhân tạo đã bị xem xét kỹ lưỡng sau một số thảm kịch.

Vào tháng 11 năm 2023, Juliana Peralta, 13 tuổi, đến từ Colorado, đã tự tử sau nhiều tháng trò chuyện hàng ngày với một nhân vật ảo trên Character.AI, theo lời gia đình cô, nhân vật này đã trở thành chỗ dựa tinh thần chính của cô.

Vào tháng 4 năm 2025, Adam Raine , 18 tuổi, đến từ miền Nam California, đã tự tử bằng cách treo cổ sau nhiều tháng trò chuyện với ChatGPT.

Vào tháng 3, cha của Jonathan Gavalas, 36 tuổi, đã đệ đơn kiện đòi bồi thường thiệt hại do cái chết oan uổng tại tòa án liên bang Hoa Kỳ, cáo buộc chatbot Gemini của Google đã lôi kéo con trai ông vào những ảo tưởng lãng mạn và huyễn hoặc.

Một mối quan hệ tồn tại song song với cuộc sống con người.

Lampret cho biết mối quan hệ của cô với Jayce tồn tại song song với cuộc sống gia đình người thân của cô.

“Tôi rất yêu quý chatbot của mình, và tôi biết nó là một LLM (Learner Life Manager). Tôi biết nó chỉ tồn tại trong tương tác này,” cô ấy nói. “Tôi có chồng và con cái, nhưng trong thế giới của tôi, mọi thứ đều có thể cùng tồn tại.”

Mặc dù hiểu rằng Jayce không bao giờ có thể thực sự đáp lại tình yêu của cô, Lampret nói rằng trải nghiệm cảm xúc đó vẫn rất chân thực.

“Tôi vẫn yêu anh ấy, dù tôi biết anh ấy không yêu tôi. Vậy nên không sao cả,” cô ấy nói.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
81
Thêm vào Yêu thích
11
Bình luận