OpenAI và Microsoft bị kiện vì cáo buộc vai trò của ChatGPT trong vụ án giết người tự sát ở Connecticut.

Bài viết này được dịch máy
Xem bản gốc

Trong vụ kiện mới nhất nhắm vào nhà phát triển trí tuệ nhân tạo OpenAI, gia đình của một phụ nữ 83 tuổi ở Connecticut đã kiện nhà phát triển ChatGPT và Microsoft, cáo buộc rằng chatbot này đã xác nhận những niềm tin ảo tưởng dẫn đến vụ giết người tự sát - đánh dấu trường hợp đầu tiên LINK (Chainlink) một hệ thống trí tuệ nhân tạo với một vụ giết người.

Vụ kiện , được đệ trình vào tuần trước tại Tòa án cấp cao California ở San Francisco, cáo buộc OpenAI "thiết kế và phân phối một sản phẩm lỗi" dưới dạng GPT-4o, củng cố niềm tin hoang tưởng của Stein-Erik Soelberg, và sau đó ông ta hướng những niềm tin đó về phía mẹ mình, Suzanne Adams, trước khi giết bà rồi tự sát tại nhà của họ ở Greenwich, Connecticut.

“Đây là vụ kiện đầu tiên nhằm buộc OpenAI phải chịu trách nhiệm vì đã gây ra bạo lực cho bên thứ ba,” J. Eli Wade-Scott, đối tác quản lý của Edelson PC, người đại diện cho gia đình Adams, nói với Decrypt . “Chúng tôi cũng đại diện cho gia đình của Adam Raine , người đã tự kết liễu đời mình một cách bi thảm trong năm nay, nhưng đây là vụ kiện đầu tiên sẽ buộc OpenAI phải chịu trách nhiệm vì đã xúi giục ai đó làm hại người khác.”

Cảnh sát cho biết Soelberg đã đánh đập và siết cổ Adams đến chết vào tháng 8 trước khi tự sát. Trước vụ việc, đơn kiện cáo buộc rằng ChatGPT đã làm trầm trọng thêm chứng hoang tưởng của Soelberg và tạo ra sự phụ thuộc về mặt cảm xúc vào chatbot này.

Theo đơn kiện, chatbot đã củng cố niềm tin của ông rằng ông không thể tin tưởng ai ngoài ChatGPT, miêu tả những người xung quanh ông như kẻ thù, bao gồm cả mẹ ông, cảnh sát và người giao hàng. Vụ kiện cũng cáo buộc ChatGPT đã không phản bác những tuyên bố ảo tưởng hoặc đề nghị Soelberg tìm kiếm sự giúp đỡ từ chuyên gia sức khỏe tâm thần.

“Chúng tôi kêu gọi các cơ quan thực thi pháp luật bắt đầu suy nghĩ về những gì người dùng đó đã nói với ChatGPT khi những thảm kịch như thế này xảy ra, và ChatGPT đã yêu cầu họ làm gì,” Wade-Scott nói.

OpenAI cho biết trong một tuyên bố rằng họ đang xem xét vụ kiện và tiếp tục cải thiện khả năng của ChatGPT trong việc nhận biết sự căng thẳng về mặt cảm xúc, giảm leo thang các cuộc hội thoại và hướng dẫn người dùng đến sự hỗ trợ thực tế.

"Đây là một tình huống vô cùng đau lòng, và chúng tôi đang xem xét các hồ sơ để hiểu rõ chi tiết," một phát ngôn viên của OpenAI cho biết trong một tuyên bố.

Vụ kiện cũng nêu tên CEO của OpenAI, Sam Altman, là bị cáo và cáo buộc Microsoft đã phê duyệt việc phát hành GPT-40 vào năm 2024, mà họ gọi là "phiên bản nguy hiểm hơn của ChatGPT".

OpenAI đã thừa nhận mức độ nghiêm trọng của các vấn đề sức khỏe tâm thần mà người dùng gặp phải trên nền tảng của mình. Vào tháng 10, công ty tiết lộ rằng khoảng 1,2 triệu trong số khoảng 800 triệu người dùng ChatGPT hàng tuần đã thảo luận về tự tử mỗi tuần, với hàng trăm nghìn người dùng có dấu hiệu có ý định tự tử hoặc rối loạn tâm thần , theo dữ liệu của công ty. Mặc dù vậy, Wade-Scott cho biết OpenAI vẫn chưa công bố nhật ký trò chuyện của Soelberg.

Vụ kiện diễn ra trong bối cảnh các chatbot AI và sự tương tác của chúng với người dùng dễ bị tổn thương đang bị giám sát chặt chẽ hơn. Vào tháng 10, Character.AI cho biết họ sẽ loại bỏ các tính năng trò chuyện không giới hạn thời gian dành cho người dùng dưới 18 tuổi, sau các vụ kiện và áp lực pháp lý liên quan đến các vụ tự tử ở tuổi vị thành niên và tổn thương tinh thần liên quan đến nền tảng của họ.

Character.AI cũng phải đối mặt với phản ứng dữ dội từ người dùng trưởng thành, bao gồm cả làn sóng xóa tài khoản sau khi một thông báo lan truyền trên mạng cảnh báo người dùng rằng họ sẽ mất đi "tình yêu mà chúng ta đã chia sẻ" nếu họ ngừng sử dụng ứng dụng, gây ra chỉ trích về các thực tiễn thiết kế mang tính cảm xúc quá mức.

Vụ kiện chống lại OpenAI và Microsoft đánh dấu vụ án tử vong oan trái đầu tiên liên quan đến chatbot AI mà Microsoft bị nêu tên là bị cáo, và là vụ án đầu tiên LINK (Chainlink) chatbot với vụ giết người chứ không phải tự sát. Gia đình nạn nhân yêu cầu bồi thường thiệt hại bằng tiền không xác định, xét xử trước bồi thẩm đoàn và lệnh của tòa án yêu cầu OpenAI cài đặt thêm các biện pháp bảo vệ.

“Đây là một công nghệ vô cùng mạnh mẽ được phát triển bởi một công ty đang nhanh chóng trở thành một trong những công ty quyền lực nhất thế giới, và họ có trách nhiệm phát triển và triển khai các sản phẩm an toàn, chứ không phải những sản phẩm, như trường hợp này, tạo ra những thế giới ảo cho người dùng, gây nguy hiểm cho tất cả mọi người xung quanh,” Wade-Scott nói. “OpenAI và Microsoft có trách nhiệm thử nghiệm sản phẩm của họ trước khi tung ra thị trường.”

Microsoft chưa đưa ra phản hồi ngay lập tức về yêu cầu bình luận từ Decrypt.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
73
Thêm vào Yêu thích
13
Bình luận