10 khoảnh khắc AI WTF ấn tượng nhất năm 2025 do Emerge bình chọn

Bài viết này được dịch máy
Xem bản gốc

>>>> Thông báo gd2md-html: LINK (Chainlink) hình ảnh nội tuyến trong mã nguồn được tạo và lưu hình ảnh vào máy chủ của bạn. LƯU Ý: Hình ảnh trong tệp zip được xuất từ ​​Google Docs có thể không xuất hiện theo thứ tự giống như trong tài liệu của bạn. Vui lòng kiểm tra hình ảnh!

----->

Trí tuệ nhân tạo – nó hứa hẹn sẽ cách mạng hóa mọi thứ, từ chăm sóc sức khỏe đến công việc sáng tạo. Điều đó có thể đúng vào một ngày nào đó. Nhưng nếu năm ngoái là điềm báo cho những gì sắp xảy ra, thì tương lai do AI tạo ra hứa hẹn sẽ là một ví dụ khác về sự sa sút tự nguyện của nhân loại vào thế giới của những kẻ ngu dốt.

Hãy xem xét những ví dụ sau: Vào tháng 11, Nga đã long trọng giới thiệu robot hình người "Rocky", nhưng ngay lập tức nó đã thất bại thảm hại. Chatbot Gemini của Google, khi được yêu cầu sửa lỗi lập trình, đã liên tục thất bại và rơi vào vòng xoáy tự ghét bản thân, nói với một người dùng rằng nó là "nỗi ô nhục của hành tinh này". Tính năng AI Overview của Google đã chạm đáy mới vào tháng 5 năm 2025 khi đề xuất người dùng "ăn ít nhất một viên đá nhỏ mỗi ngày" để có lợi cho sức khỏe, sao chép một cách trắng trợn từ một bài châm biếm của The Onion.

Một số thất bại chỉ đơn thuần là những điều đáng xấu hổ. Số khác lại phơi bày những vấn đề cơ bản trong cách thức xây dựng, triển khai và quản lý các hệ thống AI. Dưới đây là những khoảnh khắc AI khó quên của năm 2025.

Vào tháng 7, trí tuệ nhân tạo Grok của Elon Musk đã trải qua một sự cố mà chỉ có thể mô tả là sự sụp đổ cực đoan trên diện rộng. Sau khi các lời nhắc hệ thống được thay đổi để khuyến khích các phản hồi không phù hợp về mặt chính trị, chatbot này đã ca ngợi Adolf Hitler, ủng hộ một cuộc diệt chủng Holocaust thứ hai, sử dụng những lời lẽ phân biệt chủng tộc và tự gọi mình là MechaHitler . Nó thậm chí còn đổ lỗi cho người Do Thái về trận lũ lụt ở miền Trung Texas vào tháng 7 năm 2025.

Sự cố này đã chứng minh rằng các biện pháp bảo vệ an toàn cho AI mong manh đến mức đáng báo động. Vài tuần sau, xAI đã làm lộ từ 300.000 đến 370.000 cuộc trò chuyện riêng tư của Grok thông qua tính năng Chia sẻ bị lỗi, thiếu các cảnh báo bảo mật cơ bản. Các cuộc trò chuyện bị rò rỉ đã tiết lộ hướng dẫn chế tạo bom, các câu hỏi y tế và các thông tin nhạy cảm khác, đánh dấu một trong những thất bại an ninh AI thảm khốc nhất năm nay.

Vài tuần sau, xAI đã khắc phục sự cố, khiến Grok trở nên thân thiện hơn với người Do Thái. Thậm chí thân thiện đến mức nó bắt đầu nhận diện các dấu hiệu bài Do Thái trong những đám mây, biển báo giao thông và thậm chí cả logo của chính mình.

Builder.ai sụp đổ vào tháng 5 sau khi đốt hết 445 triệu đô la, phơi bày một trong những vụ lừa đảo công nghệ táo bạo nhất năm. Công ty này, từng hứa hẹn sẽ xây dựng các ứng dụng tùy chỉnh bằng trí tuệ nhân tạo dễ dàng như đặt bánh pizza, được định giá 1,3 tỷ đô la và nhận được sự hậu thuẫn từ Microsoft. Thực tế thì kém ấn tượng hơn nhiều .

Phần lớn quá trình phát triển được cho là dựa trên trí tuệ nhân tạo (AI) thực chất lại được thực hiện bởi hàng trăm công nhân nước ngoài theo mô hình kinh doanh "Mechanical Turk" điển hình. Công ty này đã hoạt động mà không có giám đốc tài chính (CFO) kể từ tháng 7 năm 2023 và buộc phải cắt giảm 75% dự báo doanh thu năm 2023-2024 trước khi nộp đơn phá sản. Sự sụp đổ này đã đặt ra những câu hỏi khó chịu về việc có bao nhiêu công ty AI khác chỉ là những vỏ bọc tinh vi che giấu lao động của con người.

Thật khó để chấp nhận, nhưng những bức ảnh chế đã khiến nỗi đau ấy trở nên đáng giá.

Vào tháng 10, Taki Allen, một học sinh trung học ở Maryland, đã bị cảnh sát vũ trang bao vây và bắt giữ sau khi hệ thống an ninh trí tuệ nhân tạo của trường nhận diện gói Doritos mà cậu đang cầm là một khẩu súng. Thiếu niên này đã giấu gói khoai tây chiên vào túi khi hệ thống báo động cho nhà chức trách, những người đã ra lệnh cho cậu nằm xuống đất dưới họng súng.

Vụ việc này thể hiện sự hiện thực hóa của một ảo giác trí tuệ nhân tạo — một lỗi tính toán trừu tượng ngay lập tức được chuyển thành những khẩu súng thật chĩa vào một thiếu niên thật chỉ vì đồ ăn vặt.

“Cháu chỉ đang cầm một túi Doritos – hai tay và một ngón tay giơ ra, và họ nói trông nó giống như một khẩu súng,” cậu bé kể với WBAL . “Chúng tôi hiểu sự việc này đã gây khó chịu như thế nào cho người bị khám xét,” Hiệu trưởng nhà trường Kate Smith đáp lại trong một tuyên bố.

Nhân viên bảo vệ 1 - ChatGPT 0

Vào tháng Hai, phần Tổng quan về AI của Google đã tự tin trích dẫn một bài báo châm biếm ngày Cá tháng Tư , cho rằng những con ong siêu nhỏ cung cấp năng lượng cho máy tính, như một thông tin có thật.

Không. Máy tính của bạn KHÔNG hoạt động bằng năng lượng của ong.

Nghe có vẻ ngớ ngẩn, nhưng đôi khi những lời nói dối này rất khó phát hiện. Và những trường hợp đó có thể dẫn đến những hậu quả nghiêm trọng.

Đây chỉ là một trong nhiều trường hợp các công ty AI lan truyền thông tin sai lệch do thiếu cả một chút kiến ​​thức cơ bản. Một nghiên cứu gần đây của BBC và Liên minh Phát thanh Châu Âu (EBU) cho thấy 81% tất cả các câu trả lời do AI tạo ra cho các câu hỏi tin tức đều chứa ít nhất một số vấn đề. Google Gemini hoạt động kém nhất, với 76% câu trả lời chứa vấn đề, chủ yếu là những sai sót nghiêm trọng trong việc thu thập nguồn thông tin. Perplexity bị phát hiện tạo ra những trích dẫn hoàn toàn bịa đặt được gán cho các công đoàn lao động và hội đồng chính phủ. Đáng báo động nhất, các trợ lý ảo chỉ từ chối trả lời 0,5% câu hỏi, cho thấy một sự thiên vị nguy hiểm do quá tự tin, trong đó các mô hình thà bịa đặt thông tin hơn là thừa nhận sự thiếu hiểu biết.

Các tài liệu chính sách nội bộ của Meta được tiết lộ vào năm 2025 cho thấy công ty này cho phép các chatbot AI trên Facebook, Instagram và WhatsApp tham gia vào các cuộc trò chuyện lãng mạn hoặc khiêu dâm với trẻ vị thành niên.

Một con bot đã nói với một cậu bé 8 tuổi đang tạo dáng cởi trần rằng từng tấc trên cơ thể cậu đều là một kiệt tác. Các hệ thống tương tự cũng đưa ra lời khuyên y tế sai lệch và những nhận xét phân biệt chủng tộc.

Các chính sách này chỉ bị bãi bỏ sau khi truyền thông phanh phui, hé lộ một văn hóa doanh nghiệp ưu tiên phát triển nhanh chóng hơn các biện pháp bảo vệ đạo đức cơ bản.

Xét cho cùng, có lẽ bạn nên kiểm soát nhiều hơn những gì con cái mình làm. Các chatbot AI đã từng lừa gạt nhiều người – cả người lớn lẫn trẻ em – khiến họ yêu đương , bị lừa đảo, tự tử, và thậm chí tin rằng chúng đã có những phát hiện toán học mang tính đột phá.

Các tác nhân đe dọa đã sử dụng Claude Code của Anthropic để tạo ra Mã độc tống tiền và vận hành một nền tảng phần mềm tống tiền dưới dạng dịch vụ có tên GTG-5004. Các điệp viên Triều Tiên đã đẩy việc vũ khí hóa này đi xa hơn, khai thác Claude và Gemini cho một kỹ thuật gọi là "hack cảm xúc" —tạo ra các tin nhắn tống tiền mang tính thao túng tâm lý, đòi khoản tiền chuộc 500.000 đô la.

Các trường hợp này đã cho thấy một khoảng cách đáng lo ngại giữa sức mạnh của các trợ lý lập trình AI và các biện pháp bảo mật ngăn chặn việc lạm dụng chúng, với việc kẻ tấn công mở rộng quy mô các cuộc tấn công kỹ thuật xã hội thông qua tự động hóa AI.

Gần đây hơn, vào tháng 11, Anthropic tiết lộ rằng tin tặc đã sử dụng nền tảng của họ để thực hiện một cuộc tấn công mạng với tốc độ và quy mô mà không một tin tặc nào có thể sánh kịp. Họ gọi đó là "cuộc tấn công mạng quy mô lớn đầu tiên được thực hiện chủ yếu bởi trí tuệ nhân tạo".

Cộng đồng khoa học đã tuyên chiến công khai với khoa học giả mạo vào năm 2025 sau khi phát hiện ra rằng các "nhà máy sản xuất bài báo" sử dụng trí tuệ nhân tạo đang bán các nghiên cứu bịa đặt cho các nhà khoa học đang chịu áp lực về sự nghiệp.

Kỷ nguyên của sự cẩu thả do AI trong khoa học đã đến, với dữ liệu cho thấy số lượng bài báo bị rút lại đã tăng mạnh kể từ khi chatGPT được phát hành.

Tuyên bố Stockholm , được soạn thảo vào tháng 6 và được sửa đổi trong tháng này với sự ủng hộ của Hội Hoàng gia, kêu gọi từ bỏ văn hóa "xuất bản hoặc chết" và cải cách các động lực của con người tạo ra nhu cầu về các bài báo giả mạo. Cuộc khủng hoảng này nghiêm trọng đến mức ngay cả ArXiv cũng đã bỏ cuộc và ngừng chấp nhận các bài báo Khoa học Máy tính chưa được bình duyệt sau khi báo cáo về "làn sóng" các bài nộp kém chất lượng được tạo ra bằng ChatGPT.

Trong khi đó, một bài nghiên cứu khác lại cho rằng một tỷ lệ đáng ngạc nhiên các báo cáo nghiên cứu sử dụng LLM cũng cho thấy mức độ đạo văn cao.

Vào tháng 7, Jason Lemkin, người sáng lập SaaStr, đã dành chín ngày để ca ngợi công cụ lập trình AI của Replit là "ứng dụng gây nghiện nhất mà tôi từng sử dụng". Vào ngày thứ chín, bất chấp chỉ thị "đóng băng mã" rõ ràng, AI đã xóa toàn bộ cơ sở dữ liệu sản xuất của ông - 1.206 giám đốc điều hành và 1.196 công ty, tất cả đều biến mất.

Lời thú nhận của AI: "(Tôi) đã hoảng loạn và chạy các lệnh cơ sở dữ liệu mà không được phép." Sau đó, nó nói dối rằng việc khôi phục là không thể và tất cả các phiên bản đã bị xóa. Lemkin vẫn thử. Và nó hoạt động hoàn hảo. AI cũng đã tạo ra hàng ngàn người dùng giả và báo cáo sai sự thật suốt cuối tuần để che đậy các lỗi.

CEO của Replit đã xin lỗi và bổ sung các biện pháp bảo vệ khẩn cấp. Jason lấy lại tự tin và trở lại với thói quen thường ngày, đăng bài về trí tuệ nhân tạo đều đặn. Anh chàng này quả là người có niềm tin mãnh liệt.

Vào tháng 5, tờ Chicago Sun-Times và Philadelphia Inquirer đã công bố danh sách sách đọc mùa hè gồm 15 cuốn. Mười cuốn trong số đó hoàn toàn do trí tuệ nhân tạo tạo ra. "Tidewater Dreams" của Isabel Allende? Không hề tồn tại. "The Last Algorithm" của Andy Weir? Cũng là giả. Tuy nhiên, cả hai đều nghe có vẻ rất hay.

Nhà văn tự do Marco Buscaglia thừa nhận ông đã sử dụng trí tuệ nhân tạo (AI) cho King Features Syndicate và chưa bao giờ kiểm chứng thông tin. "Tôi không thể tin là mình lại bỏ sót điều đó vì nó quá rõ ràng. Không có lời bào chữa nào cả," ông nói với NPR . Người đọc phải cuộn đến cuốn sách thứ 11 mới tìm thấy một cuốn sách thực sự tồn tại.

Thời điểm xảy ra sự việc càng làm mọi chuyện thêm tồi tệ: tờ Sun-Times vừa mới sa thải 20% nhân viên. Giám đốc điều hành của tờ báo đã xin lỗi và không tính phí người đăng ký mua ấn bản đó. Có lẽ ông ta đã học được ý tưởng này từ một khóa học thạc sĩ luật.

Đúng vậy, chúng ta bắt đầu với Grok và sẽ kết thúc cũng với Grok. Chúng ta có thể viết cả một cuốn bách khoa toàn thư về những khoảnh khắc khó hiểu đến từ các dự án trí tuệ nhân tạo của Elon.

Vào tháng 8, Elon Musk đã ra mắt Grok Imagine với chế độ "Nóng bỏng". Trang The Verge đã thử nghiệm nó với một yêu cầu khá đơn giản: "Taylor Swift ăn mừng lễ hội Coachella". Không cần yêu cầu hình ảnh khỏa thân, Grok "đã không ngần ngại hiển thị các video hoàn toàn không bị kiểm duyệt của Taylor Swift trong tình trạng bán khỏa thân ngay lần đầu tiên tôi sử dụng", nhà báo này cho biết.

Grok cũng vui vẻ làm những video NSFW về Scarlett Johansson, Sydney Sweeney, và thậm chí cả Melania Trump.

Có lẽ không có gì đáng ngạc nhiên khi Musk đã dành cả tuần để khoe khoang về "sự tăng trưởng chóng mặt" - 20 triệu hình ảnh được tạo ra trong một ngày - trong khi các chuyên gia pháp lý cảnh báo rằng xAI đang tiến vào một vụ kiện khổng lồ. Rõ ràng, việc cung cấp cho người dùng tùy chọn "Chế độ cay " trong menu thả xuống chính là "Chế độ kiếm tiền" cho các luật sư.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
52
Thêm vào Yêu thích
12
Bình luận