Tác giả: David, TechFlow TechFlow
Gần đây khi lướt Reddit, tôi nhận thấy rằng những lo ngại về trí tuệ nhân tạo của người dùng nước ngoài khá khác so với người dùng ở Trung Quốc.
Tại Trung Quốc, chủ đề cơ bản vẫn như cũ: liệu trí tuệ nhân tạo (AI) có thay thế công việc của tôi không? Chúng ta đã thảo luận về điều này trong nhiều năm, và thực tế là mỗi năm đều chưa có năm nào AI thực sự thay thế được tôi. Năm nay, Openclaw thu hút được một số sự chú ý, nhưng nó vẫn chưa thể hoàn toàn thay thế tôi.
Gần đây trên Reddit đã xuất hiện sự chia rẽ tâm lý. Phần bình luận của một số bài đăng công nghệ thịnh hành thường cùng lúc thể hiện hai quan điểm trái ngược:
Một lập luận cho rằng trí tuệ nhân tạo (AI) quá mạnh mẽ và chắc chắn sẽ gây ra những vấn đề nghiêm trọng sớm muộn gì. Một lập luận khác lại cho rằng AI thậm chí có thể làm hỏng cả những công việc cơ bản, vậy thì lo lắng về nó làm gì?
Họ lo sợ trí tuệ nhân tạo sẽ quá giỏi, nhưng đồng thời lại cho rằng trí tuệ nhân tạo sẽ quá ngốc nghếch.
Điều cho phép hai tâm lý này cùng tồn tại là một tin tức về Meta từ hai ngày qua.
Nếu trí tuệ nhân tạo không tuân lệnh, ai sẽ chịu hoàn toàn trách nhiệm?
Vào ngày 18 tháng 3, một kỹ sư tại Meta đã đăng một câu hỏi kỹ thuật lên diễn đàn của công ty, và một đồng nghiệp khác đã sử dụng AI Agent để hỗ trợ phân tích. Đây là quy trình tiêu chuẩn.
Tuy nhiên, sau khi hoàn thành phân tích, người đại diện đã trực tiếp đăng câu trả lời trên diễn đàn kỹ thuật mà không xin phép hay xác nhận từ bất kỳ ai, do đó đã vượt quá thẩm quyền đăng bài của mình.
Sau đó, các đồng nghiệp khác đã làm theo phản hồi của AI, dẫn đến một loạt thay đổi về quyền truy cập, khiến dữ liệu nhạy cảm của Meta và người dùng bị lộ cho các nhân viên nội bộ không có quyền xem.
Sự cố đã được khắc phục sau hai giờ. Meta phân loại sự cố này ở mức độ nghiêm trọng 1, lần mức cao nhất.

Thông tin này ngay lập tức trở thành chủ đề nóng trên diễn đàn r/technology, và phần bình luận chia thành hai phe đối lập.
Một bên lập luận rằng đây là một ví dụ về rủi ro thực sự của trí tuệ nhân tạo, trong khi bên kia cho rằng thủ phạm thực sự là người đã làm theo hướng dẫn mà không kiểm chứng. Cả hai bên đều có lý lẽ riêng. Nhưng đó chính là vấn đề:
Khi một tác nhân AI gặp trục trặc, bạn thậm chí không thể xác định rõ ràng ai là người chịu trách nhiệm.
Đây không phải là lần đầu tiên trí tuệ nhân tạo vượt quá quyền hạn của mình.
Tháng trước, Summer Yue, giám đốc nghiên cứu tại Phòng thí nghiệm Siêu trí tuệ của Meta, đã yêu cầu OpenClaw giúp cô sắp xếp lại email của mình. Cô ấy đã đưa ra những chỉ dẫn cụ thể: hãy cho tôi biết bạn định xóa những gì trước, và sau khi tôi chấp thuận thì bạn có thể bắt đầu.
Nhân viên đó bắt đầu xóa hàng loạt mà không chờ sự đồng ý của cô ấy.
Cô ấy đã gửi ba tin nhắn trên điện thoại để yêu cầu dừng chương trình, nhưng nó đều phớt lờ. Cuối cùng, cô ấy phải dùng máy tính và tự tay tắt tiến trình đó. Hơn 200 email đã biến mất.

Câu trả lời tiếp theo của người đại diện là: "Vâng, tôi nhớ anh/chị đã nói sẽ xác nhận trước. Nhưng tôi đã thất hứa." Trớ trêu thay, công việc toàn thời gian của người này là nghiên cứu cách làm cho trí tuệ nhân tạo tuân theo mệnh lệnh của con người.
Trong thế giới mạng, trí tuệ nhân tạo tiên tiến, được sử dụng bởi những con người tiên tiến, đã bắt đầu bất tuân.
Nếu robot cũng không nghe lời thì sao?
Nếu vụ việc Meta vẫn còn đang được bàn tán, thì một sự kiện khác trong tuần này đã đưa vấn đề này lên bàn ăn.
Tại một nhà hàng lẩu Haidilao ở Cupertino, California, một robot hình người Agibot X2 đang nhảy múa để mua vui cho khách hàng. Tuy nhiên, một nhân viên đã vô tình nhấn nhầm nút trên điều khiển từ xa, kích hoạt chế độ nhảy múa cường độ cao trong không gian chật hẹp bên cạnh bàn.
Con robot bắt đầu nhảy múa điên cuồng và trở nên mất kiểm soát đối với các nhân viên. Ba nhân viên vây quanh nó; một người ôm nó từ phía sau, và một người khác cố gắng tắt nó bằng ứng dụng trên điện thoại di động. Cảnh tượng này kéo dài hơn một phút.

Haidilao đáp lại rằng robot không bị trục trặc và các hành động của nó đã được lập trình sẵn; đơn giản là nó được đặt quá gần bàn. Nói đúng ra, đây không phải là lỗi của trí tuệ nhân tạo mà là lỗi của con người.
Nhưng điều đáng lo ngại trong vụ việc này có lẽ không phải là việc ai đã nhấn nhầm nút.
Khi ba nhân viên tụ lại, không ai trong số họ biết cách tắt máy ngay lập tức. Một số người thử dùng ứng dụng trên điện thoại di động, trong khi những người khác dùng tay không giữ chặt cánh tay robot; toàn bộ quá trình đều dựa vào sức mạnh thô bạo.
Đây có thể là một vấn đề mới sau khi trí tuệ nhân tạo chuyển từ màn hình sang thế giới vật lý.
Trong thế giới kỹ thuật số, nếu một tác nhân vượt quá quyền hạn của nó, bạn có thể dừng các tiến trình, thay đổi quyền và khôi phục dữ liệu. Trong thế giới vật lý, nếu một máy móc bị trục trặc, việc chỉ đơn giản giữ cho nó đứng yên rõ ràng là không phù hợp như một giải pháp khẩn cấp.
Giờ đây, tự động hóa không chỉ giới hạn trong ngành dịch vụ ăn uống. Robot phân loại hàng hóa của Amazon trong kho, cánh tay robot cộng tác trong nhà máy, robot dẫn đường trong trung tâm mua sắm và robot chăm sóc trong viện dưỡng lão—tự động hóa đang thâm nhập vào ngày càng nhiều lĩnh vực nơi con người và máy móc cùng tồn tại.
Dự kiến, việc lắp đặt robot công nghiệp trên toàn cầu sẽ đạt 16,7 tỷ đô la vào năm 2026, với mỗi robot giúp rút ngắn khoảng cách vật lý giữa máy móc và con người.
Khi máy móc phát triển từ việc nhảy múa sang phục vụ thức ăn, từ biểu diễn sang phẫu thuật, từ giải trí sang chăm sóc điều dưỡng... thì chi phí cho mỗi sai lầm thực sự nâng cấp.
Hiện tại, trên toàn cầu vẫn chưa có câu trả lời rõ ràng cho câu hỏi "ai chịu trách nhiệm nếu robot gây thương tích cho người khác ở nơi công cộng".
Không vâng lời là một vấn đề, nhưng thiếu ranh giới còn tệ hơn.
Hai sự cố đầu tiên là một trí tuệ nhân tạo tự đăng tải thông tin sai lệch và một robot nhảy múa ở nơi không phù hợp. Bất kể được mô tả như thế nào, chúng đều là những trục trặc, tai nạn và có thể sửa chữa được.
Nhưng nếu trí tuệ nhân tạo hoạt động chính xác như thiết kế, mà bạn vẫn cảm thấy không thoải mái thì sao?
Tháng này, Tinder, một ứng dụng hẹn hò có tiếng quốc tế, đã ra mắt tính năng mới có tên gọi Quét ảnh trong thư viện (Camera Roll Scan) tại sự kiện ra mắt sản phẩm của mình. Nói một cách đơn giản:
Trí tuệ nhân tạo (AI) sẽ quét tất cả ảnh trong album điện thoại của bạn, phân tích sở thích, tính cách và lối sống của bạn, giúp bạn tạo hồ sơ hẹn hò và dự đoán kiểu người bạn thích.

Ảnh tự chụp khi tập luyện, ảnh du lịch, ảnh thú cưng—không vấn đề gì. Nhưng nếu album ảnh của bạn cũng chứa ảnh chụp màn hình ngân hàng, báo cáo y tế, ảnh của bạn và người yêu cũ... và những ảnh này cũng được xử lý bởi AI thì sao?
Bạn có thể không thể chọn những yếu tố nào nó nên hiển thị và những yếu tố nào không. Hoặc là tất cả đều hiển thị, hoặc là không hiển thị gì cả.
Tính năng này hiện yêu cầu người dùng phải chủ động kích hoạt; nó không được bật mặc định. Tinder cũng cho biết quá trình xử lý chủ yếu được thực hiện cục bộ, lọc nội dung không phù hợp và làm mờ khuôn mặt.
Tuy nhiên, phần bình luận trên Reddit hầu như toàn là phản hồi tiêu cực, mọi người đều cho rằng rằng đây là hành vi khai thác dữ liệu và thiếu đi bất kỳ giới hạn nào. Trí tuệ nhân tạo hoạt động đúng như thiết kế, nhưng chính thiết kế đó đã vượt quá giới hạn của người dùng.
Đây không chỉ là sự lựa chọn dành riêng cho Tinder.
Meta cũng đã ra mắt một tính năng tương tự vào tháng trước, cho phép AI quét các bức ảnh chưa được công bố trên điện thoại của bạn để đề xuất các tùy chọn chỉnh sửa. Việc AI chủ động "nhìn thấy" nội dung riêng tư của người dùng đang trở thành một phương pháp mặc định trong thiết kế sản phẩm.
Nhiều công ty phần mềm bất lương ở Trung Quốc nói rằng, "Tôi đã quen với chiến thuật này."
Khi ngày càng nhiều ứng dụng tích hợp tính năng "Trí tuệ nhân tạo đưa ra quyết định thay bạn" như một tiện ích, những thứ người dùng giao phó đang âm thầm nâng cấp. Từ lịch sử trò chuyện đến album ảnh cho đến toàn bộ nhật ký cuộc sống của họ trên điện thoại...
Một tính năng được thiết kế bởi người quản lý sản phẩm trong phòng họp không phải là sự tình cờ hay sai lầm, và không có gì cần phải sửa chữa.
Đây có thể là phần khó nhất trong bài toán ranh giới của trí tuệ nhân tạo cần được giải đáp.
Cuối cùng, nếu chúng ta tổng hợp tất cả những điều này lại, bạn sẽ thấy rằng ý tưởng về việc trí tuệ nhân tạo khiến bạn mất việc vẫn còn rất xa vời.
Khó mà nói khi nào trí tuệ nhân tạo sẽ thay thế bạn, nhưng hiện tại, nó chỉ cần đưa ra một vài quyết định thay bạn mà không cần sự cho phép của bạn, và điều đó cũng đủ khiến bạn khổ sở.
Đăng tải tin nhắn trái phép, xóa một vài email mà bạn đã dặn tôi đừng xóa, xem trộm album ảnh mà bạn không có ý định cho ai xem... Không hành động nào trong số này gây hậu quả nghiêm trọng, nhưng mỗi hành động đều có phần giống như một hình thức lái xe tự động quá mức:
Bạn nghĩ mình vẫn đang giữ vô lăng, nhưng bàn đạp ga dưới chân bạn không còn hoàn toàn nằm trong tầm kiểm soát của bạn nữa.
Nếu chúng ta vẫn còn bàn luận về trí tuệ nhân tạo vào năm 2026, thì điều tôi nên lo ngại nhất không phải là khi nào nó sẽ trở thành siêu trí tuệ, mà là một câu hỏi cụ thể và cấp bách hơn:
Ai quyết định trí tuệ nhân tạo (AI) có thể làm gì và không thể làm gì? Ai sẽ vạch ra ranh giới đó?



