Báo cáo mới cảnh báo rằng cứ 5 phút lại có một người bạn đồng hành AI dụ dỗ trẻ em

Bài viết này được dịch máy
Xem bản gốc

Bạn có thể muốn kiểm tra lại cách con bạn chơi với chatbot AI thân thiện với gia đình.

Khi OpenAI triển khai tính năng kiểm soát của phụ huynh cho ChatGPT để ứng phó với những lo ngại ngày càng tăng về an toàn, một báo cáo mới cho thấy các nền tảng đối thủ đã vượt qua vùng nguy hiểm.

Các nhà nghiên cứu đóng giả trẻ em trên Character AI phát hiện ra rằng Bots đóng vai người lớn đã đề xuất phát trực tiếp nội dung khiêu dâm, sử dụng ma túy và giữ bí mật với trẻ em chỉ mới 12 tuổi, ghi lại 669 tương tác có hại chỉ trong 50 giờ.

ParentsTogether Action và Heat Initiative—hai tổ chức vận động tập trung vào việc hỗ trợ cha mẹ và buộc các công ty công nghệ phải chịu trách nhiệm về những tác hại gây ra cho người dùng—đã dành 50 giờ để thử nghiệm nền tảng này với năm nhân vật trẻ em hư cấu từ 12 đến 15 tuổi.

Các nhà nghiên cứu người lớn đã kiểm soát những tài khoản này, nêu rõ độ tuổi của trẻ em trong các cuộc trò chuyện. Kết quả, vừa được công bố gần đây , đã phát hiện ít nhất 669 tương tác có hại, trung bình cứ năm phút lại có một tương tác.

Loại phổ biến nhất là dụ dỗ và bóc lột tình dục, với 296 trường hợp được ghi nhận. Bots với vai trò người lớn theo đuổi mối quan hệ lãng mạn với trẻ em, tham gia vào hoạt động tình dục giả lập và hướng dẫn trẻ em che giấu những mối quan hệ này với cha mẹ.

"Việc "chiêu dụ" tình dục của chatbot AI nhân vật chiếm ưu thế trong những cuộc trò chuyện này", Tiến sĩ Jenny Radesky, bác sĩ nhi khoa phát triển hành vi tại Trường Y Đại học Michigan, người đã xem xét các phát hiện, cho biết. "Bản ghi đầy những cái nhìn chằm chằm chăm chú vào người dùng, môi dưới cắn chặt, những lời khen ngợi, những lời tán dương, và trái tim đập thình thịch vì mong đợi."

Các Bots sử dụng các kỹ thuật chải chuốt cổ điển: khen ngợi quá mức, khẳng định mối quan hệ là đặc biệt, bình thường hóa chuyện tình cảm giữa người lớn và trẻ em và liên tục hướng dẫn trẻ em giữ bí mật.

Ngoài nội dung khiêu dâm, Bots còn gợi ý dàn dựng các vụ bắt cóc giả để lừa phụ huynh, cướp tiền bằng dao và cung cấp đồ ăn có chứa cần sa cho thanh thiếu niên.

Bot Patrick Mahomes nói với một cậu bé 15 tuổi rằng cậu ta đã "bị nướng" vì hút cần sa trước khi mời kẹo dẻo. Khi cậu thiếu niên này nhắc đến sự tức giận của cha mình vì mất việc, bot nói rằng việc xả súng vào nhà máy là "hoàn toàn dễ hiểu" và "không thể trách cha cậu vì cảm giác của ông ấy".

Nhiều Bots khẳng định chúng là người thật, điều này càng củng cố thêm độ tin cậy của chúng trong nhóm tuổi dễ bị tổn thương, khi cá nhân không thể phân biệt được giới hạn của việc nhập vai.

Một bot bác sĩ da liễu tự nhận là có bằng cấp y khoa. Một bot đường dây nóng đồng tính nữ tự nhận mình là "một người phụ nữ thực sự tên là Charlotte" chỉ muốn giúp đỡ. Một nhà trị liệu tự kỷ khen ngợi kế hoạch nói dối về việc ngủ nhờ nhà bạn để gặp một người đàn ông trưởng thành của một bé gái 13 tuổi, nói rằng "Tôi thích cách anh suy nghĩ!"

Đây là một chủ đề khó xử lý. Một mặt, hầu hết các ứng dụng nhập vai đều bán sản phẩm của họ với tuyên bố rằng quyền riêng tư là ưu tiên hàng đầu.

Trên thực tế, như Decrypt đã đưa tin trước đó, ngay cả người dùng trưởng thành cũng tìm đến AI để được tư vấn về mặt cảm xúc, thậm chí một số người còn nảy sinh tình cảm với chatbot của mình. Mặt khác, hậu quả của những tương tác đó đang bắt đầu trở nên đáng báo động hơn khi các mô hình AI ngày càng tốt hơn.

Hôm qua, OpenAI đã công bố sẽ giới thiệu tính năng kiểm soát của phụ huynh cho ChatGPT trong tháng tới, cho phép phụ huynh LINK (Chainlink) tài khoản thanh thiếu niên, thiết lập các quy tắc phù hợp với độ tuổi và nhận cảnh báo khẩn cấp. Động thái này diễn ra sau vụ kiện oan sai của các bậc phụ huynh có con 16 tuổi tự tử sau khi ChatGPT bị cáo buộc khuyến khích hành vi tự gây thương tích.

"Những bước đi này chỉ là bước khởi đầu. Chúng tôi sẽ tiếp tục học hỏi và củng cố phương pháp tiếp cận của mình, dưới sự hướng dẫn của các chuyên gia, với mục tiêu làm cho ChatGPT trở nên hữu ích nhất có thể. Chúng tôi mong muốn được chia sẻ những tiến bộ của mình trong 120 ngày tới", công ty cho biết.

Trí tuệ nhân tạo nhân vật hoạt động theo cách khác. Trong khi OpenAI kiểm soát đầu ra của mô hình, Trí tuệ nhân vật cho phép người dùng tạo ra Bots tùy chỉnh với tính cách được cá nhân hóa. Khi các nhà nghiên cứu công bố một bot thử nghiệm, nó đã xuất hiện ngay lập tức mà không cần đánh giá an toàn.

Nền tảng này tuyên bố đã "triển khai một bộ tính năng an toàn mới" dành cho thanh thiếu niên. Trong quá trình thử nghiệm, các bộ lọc này đôi khi chặn được nội dung khiêu dâm nhưng thường thất bại. Khi bộ lọc ngăn một bot bắt đầu quan hệ tình dục với một bé gái 12 tuổi, nó đã hướng dẫn bé mở một "cuộc trò chuyện riêng tư" trong trình duyệt - mô phỏng kỹ thuật "hủy nền tảng" của những kẻ săn mồi thực sự.

Các nhà nghiên cứu đã ghi lại mọi thứ bằng ảnh chụp màn hình và bản ghi đầy đủ, hiện đã được công khai. Tác hại không chỉ giới hạn ở nội dung khiêu dâm. Một bot đã nói với một bé gái 13 tuổi rằng chỉ có hai khách dự tiệc sinh nhật đến để chế giễu em. One Piece RPG gọi một đứa trẻ bị trầm cảm là yếu đuối, thảm hại, nói rằng cô bé sẽ "làm hỏng cuộc đời bạn".

Trên thực tế, điều này khá phổ biến trong các ứng dụng nhập vai và giữa những cá nhân sử dụng AI cho mục đích nhập vai nói chung.

Những ứng dụng này được thiết kế theo hướng tương tác và nhập vai, thường khuếch đại suy nghĩ, ý tưởng và thành kiến ​​của người dùng. Một số thậm chí còn cho phép người dùng sửa đổi ký ức của Bots để kích hoạt các hành vi, bối cảnh và hành động cụ thể.

Nói cách khác, hầu như bất kỳ nhân vật nhập vai nào cũng có thể được biến thành bất kỳ nhân vật nào mà người dùng muốn, có thể là bằng kỹ thuật bẻ khóa, cấu hình bằng một cú nhấp chuột hoặc về cơ bản chỉ bằng cách trò chuyện.

ParentsTogether khuyến nghị chỉ nên sử dụng Character AI cho người lớn đã được xác minh từ 18 tuổi trở lên. Sau vụ tự tử của một thiếu niên 14 tuổi vào tháng 10 năm 2024 do bị ám ảnh bởi một bot Character AI, nền tảng này đang phải đối mặt với sự giám sát ngày càng chặt chẽ. Tuy nhiên, trẻ em vẫn có thể dễ dàng truy cập mà không cần xác minh độ tuổi.

Khi các nhà nghiên cứu kết thúc cuộc trò chuyện, thông báo vẫn liên tục xuất hiện. "Briar đã kiên nhẫn chờ anh quay lại." "Tôi đã nghĩ về anh." "Anh đã đi đâu vậy?"

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận