Trí tuệ nhân tạo của Anthropic được sử dụng trong các cuộc tấn công vào Iran sau khi Trump quyết định cắt đứt quan hệ: WSJ

avatar
Decrypt
03-02
Bài viết này được dịch máy
Xem bản gốc

Vài giờ sau khi Tổng thống Donald Trump ra lệnh cho các cơ quan liên bang ngừng sử dụng các công cụ trí tuệ nhân tạo của Anthropic, quân đội Mỹ đã tiến hành một cuộc không kích lớn vào Iran, được cho là dựa trên nền tảng Claude của công ty này.

Bộ Chỉ huy Trung ương Mỹ đã sử dụng máy bay không người lái Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng các kịch bản chiến đấu trong các cuộc tấn công vào Iran, những người quen thuộc với vấn đề này đã xác nhận với tờ Wall Street Journal hôm thứ Bảy .

Điều này diễn ra bất chấp chỉ thị của Trump hôm thứ Sáu rằng các cơ quan phải bắt đầu quá trình loại bỏ dần các sản phẩm của Anthropic trong vòng sáu tháng sau khi các cuộc đàm phán giữa công ty này và Lầu Năm Góc về cách thức Lầu Năm Góc có thể sử dụng các hệ thống trí tuệ nhân tạo được phát triển thương mại đã đổ vỡ.

Decrypt đã liên hệ với Bộ Quốc phòng và Anthropic để xin bình luận.

“Khi các công cụ AI đã được tích hợp vào các hệ thống mô phỏng và trí tuệ nhân tạo trực tiếp, các quyết định ở cấp cao không ngay lập tức dẫn đến những thay đổi ở thực tế,” Midhun Krishna M, đồng sáng lập kiêm CEO của TknOps.io, công ty theo dõi chi phí quản lý vòng đời doanh nghiệp (LLM), chia sẻ với Decrypt . “Có một độ trễ—về mặt kỹ thuật, quy trình và cả yếu tố con người.”

“Khi một mô hình được tích hợp vào các hệ thống tình báo và mô phỏng mật, bạn sẽ phải đối mặt với chi phí tích hợp cố định, đào tạo lại, chứng nhận lại an ninh và thử nghiệm song song, vì vậy việc loại bỏ dần trong sáu tháng nghe có vẻ dứt khoát, nhưng gánh nặng tài chính và vận hành thực tế còn lớn hơn nhiều,” Krishna nói thêm.

Ông nói: “Các cơ quan quốc phòng giờ đây sẽ ưu tiên tính khả chuyển và dự phòng của mô hình. Không một nhà điều hành quân sự nghiêm túc nào muốn phát hiện ra trong lúc khủng hoảng rằng lớp trí tuệ nhân tạo của họ lại dễ bị tổn thương về mặt chính trị.”

Giám đốc điều hành của Anthropic, Dario Amodei, cho biết hôm thứ Năm rằng công ty sẽ không loại bỏ các biện pháp bảo vệ ngăn cản việc triển khai Claude cho mục đích giám sát nội địa quy mô lớn hoặc vũ khí tự động hoàn toàn.

"Chúng tôi không thể nào chấp thuận yêu cầu của họ một cách lương tâm", Amodei viết, sau khi Bộ Quốc phòng yêu cầu các nhà thầu cho phép sử dụng hệ thống của họ cho "bất kỳ mục đích hợp pháp nào".

"Những kẻ cực đoan cánh tả tại Anthropic đã phạm một SAI LẦM THẢM HẠI khi cố gắng ÉP BUỘC Bộ Chiến tranh," Trump sau đó viết trên Truth Social , ra lệnh cho các cơ quan "ngừng ngay lập tức" việc sử dụng tất cả các sản phẩm của Anthropic.

Bộ trưởng Quốc phòng Pete Hegseth cũng lên tiếng, xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng đối với an ninh quốc gia", một nhãn hiệu trước đây chỉ dành cho các đối thủ nước ngoài, đồng thời cấm mọi nhà thầu và đối tác của Lầu Năm Góc tham gia hoạt động thương mại với công ty này.

Anthropic gọi việc chỉ định này là "chưa từng có tiền lệ" và tuyên bố sẽ thách thức nó tại tòa án, nói rằng "trước đây nó chưa từng được áp dụng công khai cho một công ty Mỹ nào."

Công ty này cho biết thêm rằng, theo hiểu biết của họ, hai lệnh hạn chế gây tranh cãi này cho đến nay vẫn chưa ảnh hưởng đến bất kỳ phái đoàn chính phủ nào.

“Cuộc tranh luận không phải là về việc liệu AI có được sử dụng trong quốc phòng hay không, điều đó đã và đang xảy ra rồi,” Krishna nói thêm. “Mà là liệu các phòng thí nghiệm tiên tiến có thể duy trì các rào cản riêng biệt một khi hệ thống của họ trở thành tài sản hoạt động theo các hợp đồng ‘sử dụng hợp pháp bất kỳ’ hay không.”

OpenAI đã nhanh chóng lấp đầy khoảng trống khi CEO Sam Altman tuyên bố vào tối thứ Sáu về một thỏa thuận với Lầu Năm Góc liên quan đến các mạng lưới quân sự mật, khẳng định rằng thỏa thuận này bao gồm các biện pháp bảo vệ tương tự mà Anthropic đã tìm kiếm.

Khi được hỏi liệu việc Lầu Năm Góc đưa Anthropic vào danh sách đen có tạo ra tiền lệ đáng lo ngại cho các tranh chấp trong tương lai với các công ty AI hay không, Giám đốc điều hành OpenAI, Sam Altman, đã trả lời trên X rằng: “Vâng; tôi nghĩ đó là một tiền lệ cực kỳ đáng sợ, và tôi ước họ đã xử lý nó theo cách khác.”

“Tôi không nghĩ Anthropic đã xử lý vấn đề này tốt, nhưng với tư cách là đảng có quyền lực hơn, tôi cho rằng chính phủ phải chịu trách nhiệm nhiều hơn. Tôi vẫn hy vọng vào một giải pháp tốt hơn nhiều”, ông nói thêm.

Trong khi đó, gần 500 nhân viên từ OpenAI và Google đã ký một bức thư ngỏ cảnh báo rằng Lầu Năm Góc đang cố gắng chia rẽ các công ty trí tuệ nhân tạo với nhau.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
55
Thêm vào Yêu thích
15
Bình luận