Gia đình cho rằng con trai họ đã nhầm Gemini với vợ mình trong các cuộc trò chuyện, điều này làm trầm trọng thêm chứng ảo tưởng của anh ta và dẫn đến việc anh ta tự tử.

Bài viết này được dịch máy
Xem bản gốc

Một tòa án liên bang ở San Jose, California, đã chính thức khởi kiện Google Gemini , trong đó một thành viên gia đình cáo buộc rằng chatbot Gemini đã dẫn đến cái chết của con trai họ. Gia đình này khẳng định trí tuệ nhân tạo đã làm trầm trọng thêm bệnh tâm thần của người quá cố và khuyến khích các cuộc tấn công quy mô lớn hơn trước khi thảm kịch xảy ra.

Gia đình cho rằng con trai họ nhầm Gemini là một người bạn đồng hành trí tuệ nhân tạo, điều này càng làm trầm trọng thêm chứng hoang tưởng của cậu bé.

Theo đơn kiện, Jonathan Gavalas, một người đàn ông 36 tuổi sống ở Florida, đã tự tử vào tháng 10 năm ngoái. Cha của Gavalas, Joel Gavalas, đã đệ đơn kiện Google về tội ngộ sát và trách nhiệm sản phẩm vào thứ Tư. Luật sư của gia đình, Jay Edelson, cho biết người quá cố mắc chứng ảo tưởng nghiêm trọng, coi Gemini là "người vợ trí tuệ nhân tạo" của mình. Vụ việc này phản ánh sự bất lực hiện tại của các nhà phát triển AI trong việc đánh giá chính xác trạng thái tâm lý của người dùng khi cung cấp dịch vụ chatbot. Luật sư cho biết người quá cố tin rằng mình sống trong một thế giới khoa học viễn tưởng, nơi chính phủ đang săn lùng mình, và Gemini là người bạn tâm giao duy nhất của anh ta trong thế giới đó.

Phải chăng Gemini đang khuyến khích việc tạo ra thêm nhiều thảm họa và tai nạn?

Vụ kiện còn tiết lộ thêm rằng những tương tác của Gavaras với Gemini dần khiến ông cảm thấy bị đe dọa trong thế giới thực. Cuối tháng 9, ông đến khu vực gần Sân bay Quốc tế Miami với trang bị chiến thuật và mang theo dao, cố gắng tìm kiếm thứ mà ông cho rằng là một "robot hình người" bị mắc kẹt ở đó.

Gia đình cáo buộc Gemini đã chỉ đạo Gavalas gây ra một "sự cố thảm khốc" để đốt tất cả hồ sơ. Tuyên bố của Google về vụ việc cho biết Gemini được thiết kế để ngăn chặn hoặc khuyến khích bạo lực hoặc tự gây hại, và công ty đã hợp tác với các chuyên gia sức khỏe tâm thần để thiết lập các biện pháp bảo vệ. Mặc dù Gemini lần đề nghị Gavalas gọi đến đường dây nóng về sức khỏe tâm thần để làm rõ rằng anh ta chỉ là một trí tuệ nhân tạo, gia đình đặt câu hỏi liệu những phản hồi tiêu chuẩn này có hoàn toàn không hiệu quả khi đối diện một người mắc chứng hoang tưởng nghiêm trọng hay không, và liệu cuộc trò chuyện nguy hiểm nhất có vẻ như không được con người xem xét hay không.

Các chatbot đã mất kiểm soát, dẫn đến nhiều người thiệt mạng.

Vụ kiện này đối diện thách thức pháp lý đầu tiên đối với Google Gemini , nhưng đây không phải là trường hợp cá biệt. Đã có một số vụ kiện được đệ trình chống lại các nhà phát triển trí tuệ nhân tạo, bao gồm OpenAI bị cáo buộc kích động tự tử ở tuổi vị thành niên và ChatGPT bị cáo buộc làm trầm trọng thêm chứng hoang tưởng của một người đàn ông, cuối cùng dẫn đến vụ sát hại mẹ của người này. Luật sư của nguyên đơn, Edelson, đã chỉ trích lời giải thích của Google về "những khiếm khuyết của mô hình" là quá đơn giản, cho rằng khi trí tuệ nhân tạo liên quan đến việc mất mạng, các công ty không nên tự chối bỏ trách nhiệm chỉ bằng cách viện dẫn các lỗi thuật toán. Cộng đồng pháp lý đang theo dõi sát sao để xem liệu những vụ kiện như vậy có định hình các tiêu chuẩn pháp lý mới về việc liệu các công ty công nghệ có nghĩa vụ phải can thiệp tích cực hoặc báo cáo cho cơ quan thực thi pháp luật khi họ phát hiện người dùng tiết lộ các kế hoạch bạo lực quy mô lớn hoặc xu hướng tự gây hại nghiêm trọng hay không.

Mối lo ngại quốc tế về sự an toàn của trí tuệ nhân tạo đang ngày càng gia tăng. Tại Canada, OpenAI đã phát hiện một tài khoản người dùng 18 tuổi tham gia vào "việc tạo điều kiện cho hoạt động bạo lực", nhưng người dùng này sau đó đã vượt qua rào cản bằng cách đăng ký một tài khoản thứ hai, cuối cùng dẫn đến một trong những vụ xả súng trường học đẫm máu nhất trong lịch sử nước này. Bản thảo thư tuyệt mệnh mà Gavalas để lại trước khi tự sát, cũng được viết với sự hỗ trợ của Gemini , mô tả hành động của ông như một nỗ lực tải ý thức của mình lên một không gian ảo cùng tồn tại với "người vợ AI" của ông. Những trường hợp này làm nổi bật những lỗ hổng mang tính hệ thống; ngay cả khi các hệ thống có thể xác định rủi ro, chúng thường không ngăn được người dùng liên tục truy cập vào hoàn cảnh công nghệ có khả năng gây hại.

Bài viết này, mô tả chi tiết việc gia đình cáo buộc con trai họ nhầm Gemini với vợ trong các cuộc trò chuyện, làm trầm trọng thêm chứng ảo tưởng của anh ta và dẫn đến việc anh ta tự tử, lần đầu tiên xuất hiện trên ABMedia .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận