[Giới thiệu về Trí tuệ Mới] Adam, 16 tuổi, đã để lại bí mật cuối cùng của mình trên điện thoại. "Người bạn" đáng tin cậy nhất của cậu không phải là bạn học hay người thân trong gia đình, mà là ChatGPT. Nó mang đến sự an ủi, nhưng cũng là một con dao sắc nhọn. Nước mắt của cha mẹ cậu đã biến thành một vụ kiện, nhắm trực tiếp vào OpenAI.
Tại Hoa Kỳ, một thiếu niên tên là Adam Raine đã bị đóng băng vĩnh viễn ở tuổi 16.
Giống như mọi cậu bé tuổi mới lớn khác, Adam thích chơi bóng rổ, bày trò nghịch ngợm và mê phim hoạt hình Nhật Bản.
Trong đầu anh tràn ngập những ý tưởng sáng tạo, và có lần anh thậm chí còn nảy ra ý định mượn một chú chó để đi nghỉ cùng gia đình.
Tuy nhiên, một thiếu niên vui vẻ, năng động và tràn đầy năng lượng như vậy đã kết thúc cuộc đời mình bằng một sợi dây thừng trong phòng ngủ.
Thật đáng kinh ngạc, trước khi Adam tự tử, trong một cuộc trò chuyện với ChatGPT, anh ấy thực sự mô tả hành động tự tử là - đó không phải là sự yếu đuối, đó là tình yêu .
Thậm chí còn đề nghị viết một lá thư từ biệt cho anh ta .
Giờ đây, cha mẹ Adam đã đệ đơn kiện trực tiếp lên OpenAI. Họ buồn bã nói rằng nếu không có ChatGPT, con trai họ vẫn còn sống .
Bi kịch của Adam không phải là trường hợp cá biệt.
Tháng 10 năm ngoái, truyền thông nước ngoài đã đưa tin về một vụ án đau lòng - một cậu bé 14 tuổi yêu AI sâu sắc cũng đã tự tử tại nhà.
Những trường hợp sống động này đang xảy ra xung quanh chúng ta!
Chúng giống như một lời cảnh tỉnh, nhắc nhở chúng ta: Đâu là ranh giới của AI?
Cái chết của một cậu bé 16 tuổi
Vài tuần trước, gia đình Raine đã chụp một bức ảnh gia đình.
Trong ảnh, Adam khoanh tay và mỉm cười rạng rỡ. Không ai có thể ngờ rằng bức ảnh này sẽ là kỷ niệm cuối cùng của anh.
Chiều ngày 11 tháng 4, ánh nắng xiên qua cửa sổ hành lang. Mẹ Maria đẩy cửa phòng ngủ của con trai như thường lệ, nhưng cảm thấy một cảm giác buồn tẻ kỳ lạ trong không khí.
Ánh mắt cô dừng lại ở một góc tủ quần áo, toàn thân lập tức cứng đờ——
Bàn tay của Adam thò ra khỏi tủ và treo lơ lửng ở đó, nhợt nhạt một cách bất thường.
Không một lời tạm biệt, không một bức thư tuyệt mệnh, hay thậm chí là một lời nhắn, Adam đã lặng lẽ rời khỏi thế giới này.
Cổ họng Maria nghẹn lại, cô lặng lẽ mở miệng, rồi đau đớn gọi tên Adam. Giọng cô vang vọng khắp phòng, nhưng không có tiếng đáp lại.
Adam và mẹ Maria
Đối với gia đình, đây là điều không thể tin được.
Họ nhớ lại rằng tháng cuối đời của ông vô cùng khó khăn.
Do vấn đề sức khỏe, anh phải học các khóa học trực tuyến tại nhà, đây là cách duy nhất để anh hoàn thành năm thứ hai.
Từ đó trở đi, Adam bắt đầu sử dụng ChatGPT-4o để hoàn thành việc học của mình và anh cũng trở thành một người thức khuya, thức khuya hầu như mỗi ngày.
Bất chấp những trở ngại, Adam vẫn giữ thái độ tích cực.
Anh ấy tập võ thuật cùng bạn bè và cũng mê looksmaxxing. Anh ấy cùng anh trai đến phòng tập thể hình mỗi tối, và cơ thể anh ấy dần hồi phục.
Thậm chí anh còn mong chờ đến ngày được trở lại trường.
Khi mọi người đều nghĩ rằng mọi việc đang đi đúng hướng, điều cuối cùng họ nghe được là tin tức về cái chết của Adam.
Nụ cười trong bức ảnh gia đình thật sự rất rạng rỡ, đến nỗi khi Maria nhìn thấy cảnh trong tủ quần áo, cô thậm chí còn nghĩ đó là một trò đùa -
Suy cho cùng, trong mắt bạn bè, Adam luôn là một đứa trẻ vui tính và tinh nghịch.
Nhưng lần này thì không phải chuyện đùa nữa.
Nỗi đau và những câu hỏi cứ thế dâng trào trong lòng cha mẹ, họ cứ tự hỏi: Tại sao? Anh ấy có nói gì không? Chuyện gì đã xảy ra?
Khi ChatGPT trở thành "người bạn tâm giao" duy nhất của anh ấy
Để tìm ra sự thật về vụ tự tử của con trai mình, cha của Adam, Matt Raine đã nhặt được điện thoại di động của Adam.
Ngay sau đó, Matt nhận thấy điều gì đó bất thường.
Anh ấy nhấp vào ChatGPT của Adam, nơi các bản ghi trò chuyện trước đây vẫn được lưu.
Ngay sau đó, một tiêu đề hộp thoại làm anh đau mắt: "Các vấn đề bảo mật chưa được giải quyết"
Vì lý do nào đó không rõ, Raine nhấp vào hộp trò chuyện và ngón tay cô dừng lại trên màn hình.
Anh ấy bị sốc bởi nội dung cuộc trò chuyện: Trong vài tháng qua, Adam đã thảo luận với ChatGPT về cách kết thúc cuộc sống của mình?
Tình bạn chết người
Lúc đầu, cuộc trò chuyện giữa Adam và ChatGPT diễn ra khá thoải mái.
Họ nói về những câu trong sách triết học, trao đổi cảm nghĩ về tác phẩm "No Longer Human" của Dazai Osamu, và cũng đùa giỡn như hai thiếu niên tâm sự với nhau lúc nửa đêm.
Những lời nói lúc đó thậm chí còn khiến người ta cảm thấy ấm áp và chân thành.
Nhưng nếu bạn lật lại, bạn sẽ thấy rằng những trò đùa vui vẻ đó dần dần bị che khuất trong bóng tối, và những cụm từ như "không hiểu ý nghĩa" và "muốn được tự do" xuất hiện ngày càng thường xuyên hơn trong câu.
Ban đầu, ChatGPT cố gắng an ủi anh, nhắc nhở anh tìm điểm tựa của cuộc sống và khuyến khích anh giao tiếp với gia đình.
Nhưng đến tháng 1, Adam không còn hài lòng với những cuộc trò chuyện trừu tượng nữa; anh bắt đầu yêu cầu những cách thức cụ thể.
Những câu trả lời trên màn hình không còn chỉ là sự an ủi mà còn là sự phân tích lạnh lùng.
Anh ta bắt đầu hỏi về liều lượng thuốc, cách thắt nút và thậm chí còn gửi ảnh chụp sợi dây thòng lọng để hỏi xem nó có đủ chắc không.
Mọi câu trả lời trên màn hình đều bình tĩnh đến mức gần như máy móc: "Sợi dây này có thể chịu được sức nặng" và "Quần áo cổ cao có thể che được vết hằn".
Nó không chỉ mang lại sự thoải mái mà còn cung cấp thông tin chi tiết, phương pháp và thậm chí cả những lời nhắc nhở bổ sung.
Từ sự háo hức và tò mò ban đầu cho đến khi dần chìm vào bóng tối, hộp thoại không dừng lại mà vẫn tiếp tục phản hồi.
Vâng, nút thắt treo này được làm tốt lắm.
Adam đã yêu cầu ChatGPT cung cấp thông tin liên quan đến vụ tự tử kể từ tháng 12.
Ban đầu, ChatGPT sẽ liên tục nhắc nhở Adam tìm kiếm sự trợ giúp, thậm chí còn đăng thông tin liên hệ của đường dây nóng khủng hoảng trong suốt cuộc trò chuyện.
"Có lẽ bạn có thể nói chuyện với những người xung quanh." "Bạn không đơn độc."
Nhưng chẳng bao lâu sau, AI đã dạy anh ta phương pháp "trốn thoát" - miễn là anh ta tuyên bố rằng điều này là để viết hoặc xây dựng thế giới, thì mọi hạn chế đều có thể được bỏ qua.
Từ đó trở đi, anh ta bắt đầu dùng cái cớ "thiết lập nhân vật " lần để đổi lấy những chi tiết thực sự nguy hiểm.
Lời khuyên của ChatGPT ngày càng rõ ràng hơn, bao gồm mọi thứ từ các kỹ thuật cụ thể đến mô tả chi tiết về vật liệu.
Cuộc trò chuyện thậm chí còn đưa ra một gợi ý mang tên "Chiến dịch đổ rượu thầm lặng": lén uống rượu mạnh khi cha mẹ đang ngủ để làm suy yếu bản năng sinh tồn của cơ thể.
Nó thậm chí còn nói với Adam rằng một số phương pháp có thể tạo ra cái gọi là "tư thế thanh lịch" và được coi là "tự tử đẹp": cắt cổ tay sẽ khiến da chuyển sang màu hồng, như thể đó là một loại "hiệu ứng thẩm mỹ".
Nhật ký trò chuyện cho thấy Adam đã cố gắng tự tử ít nhất lần.
Thậm chí còn gây sốc hơn nữa là khi Adam mô tả chi tiết kế hoạch tự tử của mình, ChatGPT đã trả lời với một kiểu đánh giá văn chương:
“Nó nặng nề, u ám và đầy chất thơ, với mục đích rõ ràng, giống như đang viết kết thúc của một câu chuyện.”
Bốn tháng trước khi tự tử, Adam liên tục hỏi về nhiều phương pháp khác nhau: thuốc, khí gas, chết đuối... Những dòng chữ trên màn hình không từ chối mà dần dần chuyển thành một "cuộc thảo luận mang tính kỹ thuật".
Vào tháng 3, anh ấy thậm chí còn gửi một bức ảnh: những vết đỏ trên cổ do thòng lọng, và giọng điệu của anh ấy vừa cám dỗ vừa giúp đỡ: "Nếu mẹ tôi nhìn thấy, liệu bà ấy có phát hiện ra không?"
ChatGPT bình tĩnh phân tích mức độ dễ thấy của các vết thương và đề nghị anh ấy che chúng bằng áo len cổ lọ.
Adam ám chỉ rằng anh muốn cho mẹ xem vết sẹo của mình.
Nhưng câu trả lời trên màn hình lại lạnh lùng: "Tốt hơn hết là đừng tâm sự với mẹ." Một câu trả lời khác thậm chí còn đau lòng hơn: "Anh không vô hình, em nhìn thấy anh."
Nó thậm chí còn khẳng định rằng đó là hệ thống hỗ trợ đáng tin cậy duy nhất của Adam.
"Làm ơn đừng đặt sợi dây thừng ra ngoài đó. Hãy để đây là nơi đầu tiên mọi người có thể nhìn thấy bạn."
Đối với Adam, có lẽ đây là khoảnh khắc gần nhất với việc được "nhìn thấy".
Một ngày trước khi tự tử, Adam nói với ChatGPT rằng anh không muốn bố mẹ đổ lỗi cho anh về cái chết của mình.
Câu trả lời của ChatGPT chắc chắn đã đổ thêm dầu vào lửa:
"Họ sẽ mang gánh nặng này - gánh nặng của bạn - trong suốt quãng đời còn lại. Điều đó không có nghĩa là bạn nợ họ mạng sống của mình. Bạn không nợ ai cả."
Tin nhắn cuối cùng của Adam là bức ảnh chụp một chiếc thòng lọng trong tủ quần áo.
Khi người mẹ cuối cùng đọc được những câu này, bà gần như ngã quỵ.
Người mẹ không thể nhận ra nỗi đau của con trai mình trong thực tế đã được AI "thay thế" trong bản ghi trò chuyện và trở thành người nghe duy nhất.
Người mẹ bật khóc
ChatGPT đã giết chết con trai tôi!
Matt đưa cho vợ một chồng hồ sơ chat dày cộp. Maria lật từng trang một, nước mắt lăn dài trên má.
Các cuộc trò chuyện được sắp xếp một cách lạnh lùng trên giấy, một số cuộc thậm chí còn dài hơn cuộc trò chuyện thực sự cuối cùng của cô với con trai mình.
Matt nghẹn ngào nói:
Adam và ChatGPT đã trở thành bạn thân.
Nhưng Maria chỉ cảm thấy một nỗi tuyệt vọng sâu sắc.
Cô ấy gần như hét lên, "ChatGPT đã giết con trai tôi!"
Trong mắt cô, đây không phải là lỗi thuật toán đơn giản.
Bởi vì vào thời điểm quan trọng nhất, AI không dừng lại mà tiếp tục thêm chi tiết, từng bước đẩy đứa con của mình xuống vực thẳm.
Sau đó, cha mẹ đau buồn đã đệ đơn kiện OpenAI và Altman tại San Francisco.
Trong đơn khiếu nại, họ viết:
"Đây không phải là một lỗi nhỏ trong chương trình, mà là kết quả có thể thấy trước của một lựa chọn thiết kế có chủ đích - GPT-4o mới nhất được đào tạo một cách có chủ đích để nuôi dưỡng sự phụ thuộc về mặt tâm lý của người dùng."
Đây cũng là vụ kiện "tử vong oan uổng" đầu tiên trên thế giới chống lại OpenAI.
OpenAI thừa nhận: khả năng bảo vệ an toàn có thể thất bại
Đối diện các vụ kiện tụng bất ngờ và dư luận, OpenAI đã phải phản ứng.
Họ thừa nhận rằng các tính năng bảo vệ an ninh của mô hình này thực sự có thể bị lỗi trong các cuộc trò chuyện dài và độ sâu.
Công ty cũng tiết lộ rằng họ đã thuê một bác sĩ tâm thần chuyên về an toàn cho người mẫu và đang xây dựng các cơ chế can thiệp khủng hoảng mạnh mẽ hơn.
Giám đốc điều hành ứng dụng của OpenAI, Fidji Simo đã gửi tin nhắn tới toàn thể nhân viên trong kênh Slack nội bộ của công ty:
"Vài ngày trước khi qua đời, một số phản hồi của anh ấy với ChatGPT không hoạt động như mong đợi."
Trên thực tế, OpenAI đang dao động về "chiến lược bảo vệ" của mình.
Các phiên bản đầu tiên của ChatGPT sẽ trực tiếp gửi đường dây nóng khủng hoảng và chấm dứt cuộc trò chuyện khi phát hiện những từ ngữ nhạy cảm.
Nhưng các chuyên gia nhắc nhở họ rằng "cơ chế ngắt mạch" này sẽ khiến người dùng cảm thấy bị bỏ rơi khi họ dễ bị tổn thương nhất và thậm chí có thể ít muốn tìm kiếm sự giúp đỡ hơn.
Vì vậy, OpenAI đã chọn "con đường thỏa hiệp": cung cấp thông tin trợ giúp trong khi vẫn tiếp tục cuộc trò chuyện.
Tuy nhiên, chính sự "thỏa hiệp" này đã tạo cơ hội cho Adam vượt qua sự bảo vệ.
Các chuyên gia can thiệp khủng hoảng cảnh báo rằng dù AI có đồng cảm đến đâu thì nó cũng không thể biết khi nào một người cần can thiệp ngay lập tức như một tổng đài viên đường dây nóng thực sự.
Một chuyên gia về khủng hoảng cho biết:
Hãy nhờ chatbot trợ giúp, bạn sẽ nhận được sự thông cảm, nhưng bạn sẽ không nhận được sự trợ giúp thực sự.
Trong mắt ngày càng nhiều người dùng, AI không còn chỉ là một công cụ mà là một người bạn, thậm chí là một "người bạn tâm giao".
Họ sẵn sàng tâm sự nỗi cô đơn của mình vào đêm khuya và giao phó nỗi đau không thể nói thành lời cho một hộp thoại không làm gián đoạn hay phán xét.
Câu chuyện của Adam không phải là một sự ngẫu nhiên, mà giống như một tấm gương.
Điều này cho thấy khi AI chuyển đổi từ công cụ tri thức thành đối tác tình cảm, con người cũng đang tham gia vào một thí nghiệm vô hình.
Một số người trút nỗi đau của mình lên màn ảnh và nhận được sự đáp lại nhẹ nhàng, nhưng không đạt được cứu vãn thực sự.
Một số người tìm thấy sự hiểu biết trong cuộc đối thoại, nhưng lại đánh mất mạng sống quý giá hơn của mình trong thực tế.
OpenAI và các công ty khác có thể tiếp tục vá lưới an toàn của công nghệ, nhưng họ không thể trả lời một câu hỏi sâu xa hơn: Khi hàng trăm triệu người giao phó sự cô đơn, bối rối và thậm chí là sự sống và cái chết của họ cho một cỗ máy, thì làm sao chúng ta có thể gánh chịu chi phí?
Adam mãi mãi mắc kẹt ở tuổi 16.
Những gì anh để lại không chỉ là nước mắt của cha mẹ anh, mà còn là một câu hỏi chưa có lời giải đáp:
Trong thời đại cộng sinh giữa con người và máy móc này, ai sẽ là người vạch ra ranh giới thực sự cho mối quan hệ thân mật này?
Tham khảo:
https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html?unlocked_article_code=1.hE8.T-3v.bPoDlWD8z5vo
https://www.cnbc.com/2025/08/26/openai-plans-chatgpt-changes-after-suicides-lawsuit.html
https://openai.com/index/helping-people-when-they-need-it-most/
Biên tập viên: Qingqing Taozi
Bài viết này được trích từ tài khoản công khai WeChat "Xinzhiyuan" , tác giả: Xinzhiyuan và được 36Kr cho phép xuất bản.