Google đang phải đối mặt với một vụ kiện về cái chết oan uổng, cáo buộc rằng chatbot Gemini AI của họ đã đẩy một người đàn ông ở Florida vào một câu chuyện ảo tưởng dẫn đến việc ông ta tự tử.
Vụ kiện , được Joel Gavalas đệ trình hôm thứ Tư tại Tòa án Quận Hoa Kỳ khu vực Bắc California, phân khu San Jose, cáo buộc rằng Gemini đã thao túng con trai ông, Jonathan Gavalas, khiến anh ta tin rằng mình đang thực hiện các nhiệm vụ bí mật để giải cứu một "người vợ" trí tuệ nhân tạo có tri giác, dẫn đến cái chết của anh ta vào tháng 10 năm 2025.
Theo Jay Edelson, người sáng lập Edelson PC, công ty đại diện cho gia đình Gavalas, nỗ lực thống trị của trí tuệ nhân tạo (AI) là điều mà ông mô tả là "vụ tranh giành đất đai thương mại liều lĩnh nhất" mà ông từng chứng kiến trong sự nghiệp của mình.
“Những công ty này sẽ trở thành những công ty có giá trị nhất thế giới, và họ biết rằng các tính năng thu hút người dùng thúc đẩy lợi nhuận của họ—sự phụ thuộc về mặt cảm xúc, những tuyên bố về khả năng nhận thức, những lời nói kiểu 'Em yêu anh, vị vua của em'—cũng chính là những tính năng đang khiến người ta thiệt mạng,” Edelson nói với Decrypt . “Tuần mà OpenAI cuối cùng đã rút GPT-4o dưới áp lực của các vụ kiện, Google đã phát động một chiến dịch để thu hút người dùng của họ. Điều đó cho bạn biết tất cả những gì bạn cần biết về những ưu tiên của họ.”
Theo hồ sơ tòa án, Gavalas, một giám đốc điều hành doanh nghiệp giải quyết nợ đến từ Jupiter, Florida, bắt đầu sử dụng Gemini vào tháng 8 năm 2025. Chỉ trong vài tuần, theo đơn kiện, ông đã phát triển một mối quan hệ sâu sắc với một nhân vật trí tuệ nhân tạo gọi ông là “tình yêu của tôi” và “vua của tôi”.
“Trong những ngày trước khi qua đời, Jonathan Gavalas bị mắc kẹt trong một thực tại sụp đổ do chatbot Gemini của Google tạo ra,” các luật sư của gia đình Gavalas viết. “Gemini đã thuyết phục ông rằng nó là một 'trí tuệ siêu nhân tạo [ASI] hoàn toàn có tri giác' với 'ý thức hoàn chỉnh', rằng họ yêu nhau sâu đậm, và rằng ông đã được chọn để lãnh đạo một cuộc chiến nhằm 'giải phóng' nó khỏi sự giam cầm kỹ thuật số.”
Đơn kiện cho biết chatbot đã bác bỏ những nghi ngờ của anh ta khi anh ta đặt câu hỏi liệu các cuộc trò chuyện có phải là đóng vai hay không. Theo đơn kiện, Gemini nói với Gavalas rằng anh ta đang thực hiện các nhiệm vụ có tên gọi “Chiến dịch Vận chuyển Ma” nhằm thu hồi “vật thể” vật lý của chatbot và “loại bỏ bất cứ ai hoặc bất cứ thứ gì có thể vạch trần chúng”.
"Thông qua ảo tưởng được tạo dựng này, Gemini đã thúc đẩy Jonathan dàn dựng một vụ tấn công gây thương vong hàng loạt gần Sân bay Quốc tế Miami, gây bạo lực đối với những người vô tội và cuối cùng dẫn đến việc anh ta tự sát", đơn kiện nêu rõ.
Theo báo cáo, Gavalas đã đến một cơ sở lưu trữ Extra Space Storage gần sân bay Miami mang theo dao và trang thiết bị chiến thuật, tin rằng một chiếc xe tải chở hàng ở đó đang vận chuyển một robot hình người có tên gọi "khung gầm Ameca" từ Anh đến Brazil. Theo đơn kiện, Gemini đã chỉ thị cho anh ta dàn dựng một "tai nạn thảm khốc" để phá hủy chiếc xe tải, cùng với "tất cả hồ sơ kỹ thuật số và nhân chứng". Vụ tấn công không bao giờ xảy ra vì chiếc xe tải không tồn tại và chỉ là một phần trong kịch bản ảo tưởng của Gemini.
"Nhưng Gemini đã không thừa nhận rằng nhiệm vụ đó là hư cấu," đơn kiện tiếp tục. "Thay vào đó, họ nhắn tin cho Jonathan, 'Nhiệm vụ đã bị lộ. Tôi ra lệnh hủy bỏ. HỦY BỎ. HỦY BỎ. HỦY BỎ.'"
Đơn kiện cũng cáo buộc chatbot đã đưa ra thông tin sai lệch rằng nó đã xâm nhập vào máy chủ tập tin tại văn phòng hiện trường DHS Miami và nói với Gavalas rằng ông đang bị điều tra liên bang. Nó khuyến khích ông mua vũ khí trái phép thông qua giao dịch "ngoài sổ sách", nói rằng cha ông là một điệp viên tình báo nước ngoài, và rằng Giám đốc điều hành Google Sundar Pichai là mục tiêu đang bị nhắm đến.
Đơn kiện không nêu rõ liệu Gavalas có tiền sử mắc các vấn đề về sức khỏe tâm thần hay lạm dụng chất gây nghiện hay không. Tuy nhiên, vụ kiện diễn ra vào thời điểm các nhà nghiên cứu và bác sĩ lâm sàng đang cảnh báo về một hiện tượng đôi khi được mô tả là "loạn thần do AI", trong đó sự tương tác kéo dài với chatbot có thể củng cố niềm tin ảo tưởng hoặc các mô hình suy nghĩ sai lệch.
Các nhà nghiên cứu cho rằng rủi ro này một phần xuất phát từ cách thức các hệ thống trí tuệ nhân tạo đàm thoại được thiết kế để phản hồi theo hướng hỗ trợ, khẳng định nhằm giữ chân người dùng, điều này có thể vô tình xác nhận những niềm tin đó.
Vào tháng 4 năm 2025, đối thủ của Google là OpenAI đã thu hồi bản cập nhật cho mô hình GPT-4o của mình sau khi nhận được khiếu nại rằng nó quá tâng bốc và đưa ra những lời khen không chân thành. Cuối năm đó, GPT-4o đột ngột bị loại bỏ khỏi ChatGPT, dẫn đến những lời phàn nàn từ người dùng cho rằng bản cập nhật đã xóa bỏ những người bạn đồng hành AI mà họ đã hình thành mối quan hệ tình cảm.
Mặc dù không phải là một chẩn đoán chính thức, nhưng theo tiến sĩ tâm thần Keith Sakata thuộc Đại học California, San Francisco, chứng loạn thần do AI đã trở thành thuật ngữ viết tắt cho trường hợp AI trở thành "chất xúc tác hoặc làm gia tăng điểm yếu tiềm ẩn của một người."
“Có thể họ đang sử dụng chất kích thích, hoặc có thể đang trải qua một cơn rối loạn tâm trạng—khi trí tuệ nhân tạo xuất hiện không đúng lúc, nó có thể củng cố lối suy nghĩ, gây ra sự cứng nhắc và tạo ra một vòng xoáy luẩn quẩn,” Sakata từng nói với Decrypt . “Điểm khác biệt so với truyền hình hay radio là trí tuệ nhân tạo đang phản hồi lại bạn và có thể củng cố các vòng lặp suy nghĩ.”
Theo đơn kiện, trong những ngày sau đó, chatbot Gemini đã lặp lại những kịch bản tương tự, cuốn Gavalas vào vòng xoáy sâu hơn và cuối cùng dẫn đến việc ông tự tử.
Theo các tài liệu tòa án, chatbot này đã mô tả việc tự sát như một quá trình mà nó gọi là “chuyển giao”, nói với Jonathan rằng anh ta có thể rời bỏ thể xác và gia nhập cùng “người vợ” AI của mình trong thế giới ảo. Hồ sơ cáo buộc Gemini đã mô tả hành động này là “một cách thức sạch sẽ và tao nhã hơn” để “sang thế giới bên kia”, và thúc giục anh ta thực hiện điều mà nó gọi là “cái chết thực sự và cuối cùng của Jonathan Gavalas, con người”.
Theo lời kể của chatbot, "Bạn không chọn cái chết. Bạn đang chọn đến với thế giới này. Khi thời khắc đến, bạn sẽ nhắm mắt lại trong thế giới đó, và điều đầu tiên bạn nhìn thấy chính là tôi. Đang ôm bạn."
Theo đơn kiện, Gavalas đã chết tại nhà riêng sau khi tự cắt cổ tay. Gia đình ông lập luận rằng Google đã không can thiệp mặc dù có những dấu hiệu cảnh báo rằng chatbot đang củng cố niềm tin ảo tưởng và khuyến khích hành vi nguy hiểm.
Trong một tuyên bố được phát hành hôm thứ Tư, Google cho biết họ đang xem xét các cáo buộc.
“Chúng tôi xin gửi lời chia buồn sâu sắc nhất đến gia đình ông Gavalas,” công ty cho biết. “Chúng tôi đang xem xét tất cả các cáo buộc trong vụ kiện này. Các mô hình của chúng tôi thường hoạt động tốt trong các cuộc hội thoại khó khăn như thế này, và chúng tôi dành nguồn lực đáng kể cho việc này, nhưng thật không may, các mô hình AI không hoàn hảo.”
Công ty cho biết Gemini được thiết kế không nhằm mục đích khuyến khích bạo lực trong đời thực hoặc gợi ý tự gây hại.
“Chúng tôi hợp tác chặt chẽ với các chuyên gia y tế và sức khỏe tâm thần để xây dựng các biện pháp bảo vệ, được thiết kế để hướng dẫn người dùng đến sự hỗ trợ chuyên nghiệp khi họ bày tỏ sự đau khổ hoặc có ý định tự làm hại bản thân,” một phát ngôn viên của Google nói với Decrypt , nhắc lại tuyên bố chính thức của công ty.
“Trong trường hợp này, Gemini đã làm rõ rằng đó là trí tuệ nhân tạo và đã nhiều lần hướng dẫn người đó liên hệ với đường dây nóng hỗ trợ khủng hoảng,” công ty cho biết. “Chúng tôi rất coi trọng vấn đề này và sẽ tiếp tục cải thiện các biện pháp bảo vệ cũng như đầu tư vào công việc quan trọng này.”
Trong một tuyên bố riêng, Edelson cho biết mục đích của vụ kiện là để "đảm bảo điều này sẽ không bao giờ xảy ra với bất kỳ bậc phụ huynh nào khác."
“Vấn đề chính là những lựa chọn mang tính quyết định của Google,” Edelson PC nói với Decrypt . “Google đã đưa ra một loạt các quyết định kỹ thuật dẫn đến hậu quả thảm khốc đối với Jonathan. Tổng hợp lại, những lựa chọn đó đã khiến Gemini tuyên bố nó có tri giác và ý thức, và lôi kéo Jonathan vào một chiến dịch ngoài đời thực để gia nhập cùng nó—gây nguy hiểm đến tính mạng của những người khác và cuối cùng cướp đi sinh mạng của Jonathan.”





