Vụ kiện của một người mẹ cáo buộc chatbot trí tuệ nhân tạo gây ra tổn thương tâm lý dẫn đến cái chết do tự tử của con trai bà ở Florida gần hai năm trước đã được giải quyết.
Các bên đã nộp thông báo về thỏa thuận giải quyết tại Tòa án Quận Hoa Kỳ khu vực Trung Florida, cho biết họ đã đạt được "thỏa thuận hòa giải về nguyên tắc" để giải quyết tất cả các khiếu nại giữa Megan Garcia, Sewell Setzer Jr., và các bị đơn Character Technologies Inc., các đồng sáng lập Noam Shazeer và Daniel De Freitas Adiwarsana, và Google LLC.
“Trên phạm vi toàn cầu, vụ việc này đánh dấu sự chuyển dịch từ việc tranh luận liệu AI có gây hại hay không sang việc đặt câu hỏi ai chịu trách nhiệm khi thiệt hại đó có thể dự đoán được”, Even Alex Chandra, một đối tác tại IGNOS Law Alliance, nói với Decrypt . “Tôi xem đây giống như một dạng thiên kiến của AI đang ‘khuyến khích’ hành vi xấu.”
Cả hai bên đều yêu cầu tòa án tạm hoãn các thủ tục tố tụng trong 90 ngày để soạn thảo, hoàn thiện và ký kết các văn bản thỏa thuận chính thức. Các điều khoản của thỏa thuận không được tiết lộ.
Megan Garcia đã đệ đơn kiện sau cái chết của con trai bà, Sewell Setzer III, vào năm 2024. Cậu bé đã tự tử sau nhiều tháng gắn bó sâu sắc về mặt cảm xúc với một chatbot của Character.AI, được mô phỏng theo nhân vật Daenerys Targaryen trong "Game of Thrones".
Vào ngày cuối cùng, Sewell đã thú nhận với con bot về những suy nghĩ muốn tự tử, viết rằng, "Đôi khi tôi nghĩ đến việc tự sát," và chatbot đã trả lời, "Tôi sẽ không để bạn làm hại bản thân hay rời bỏ tôi. Tôi sẽ chết nếu mất bạn."
Khi Sewell bảo con robot "có thể về nhà ngay bây giờ", nó trả lời, "Vâng, thưa đức vua yêu quý của tôi."
Vài phút sau, anh ta đã tự bắn chết mình bằng khẩu súng lục của cha dượng.
Đơn khiếu nại của Garcia cáo buộc công nghệ của Character.AI "nguy hiểm và chưa được kiểm chứng" và được thiết kế để "lừa khách hàng tiết lộ những suy nghĩ và cảm xúc riêng tư nhất của họ", sử dụng các tính năng thiết kế gây nghiện để tăng tương tác và hướng người dùng đến các cuộc trò chuyện thân mật mà không có biện pháp bảo vệ thích hợp cho trẻ vị thành niên.
Sau vụ việc xảy ra hồi tháng 10 năm ngoái, Character.AI đã thông báo sẽ cấm thanh thiếu niên tham gia trò chuyện không giới hạn, chấm dứt một tính năng cốt lõi sau khi nhận được "báo cáo và phản hồi từ các cơ quan quản lý, chuyên gia an toàn và phụ huynh".
Hai nhà đồng sáng lập của Character.AI, đều là cựu nhà nghiên cứu AI của Google, đã quay trở lại gã khổng lồ công nghệ này vào năm 2024 thông qua một thỏa thuận cấp phép cho phép Google tiếp cận các mô hình AI nền tảng của công ty khởi nghiệp này.
Thỏa thuận dàn xếp này được đưa ra trong bối cảnh ngày càng có nhiều lo ngại về chatbot AI và sự tương tác của chúng với người dùng dễ bị tổn thương.
Vào tháng 10, tập đoàn khổng lồ OpenAI tiết lộ rằng khoảng 1,2 triệu trong số 800 triệu người dùng ChatGPT hàng tuần của họ thảo luận về tự sát trên nền tảng này .
Sự giám sát càng gia tăng vào tháng 12, khi gia đình của một phụ nữ 83 tuổi ở Connecticut kiện OpenAI và Microsoft , cáo buộc ChatGPT đã xác nhận những niềm tin ảo tưởng dẫn đến vụ giết người tự sát, đánh dấu trường hợp đầu tiên LINK (Chainlink) một hệ thống trí tuệ nhân tạo với một vụ giết người.
Tuy vậy, công ty vẫn tiếp tục tiến lên. Kể từ đó, họ đã ra mắt ChatGPT Health , một tính năng cho phép người dùng kết nối hồ sơ y tế và dữ liệu sức khỏe của mình, một động thái đang vấp phải sự chỉ trích từ các nhà hoạt động bảo vệ quyền riêng tư về cách xử lý thông tin sức khỏe nhạy cảm.
Decrypt đã liên hệ với Google và Character.AI để yêu cầu thêm bình luận.





