Hôm thứ Năm, Giám đốc điều hành của Anthropic, Dario Amodei, đã công khai bác bỏ yêu cầu của Lầu Năm Góc. Bộ Quốc phòng muốn được sử dụng công nghệ trí tuệ nhân tạo (AI) của công ty một cách không hạn chế cho mục đích quân sự. Hạn chót chỉ còn vài giờ nữa, có thể khiến công ty khởi nghiệp trị giá 380 tỷ đô la này bị loại khỏi chuỗi cung ứng của quân đội Mỹ.
Cuộc đối đầu này đánh dấu lần đầu tiên một công ty trí tuệ nhân tạo lớn công khai thách thức lời đe dọa của chính phủ Mỹ về việc tịch thu công nghệ của họ.
Cuộc đối đầu
Trong một bài đăng trên blog được công bố trên trang web của Anthropic, Amodei gọi những lời đe dọa của Lầu Năm Góc là "mâu thuẫn cố hữu", lưu ý rằng một lời đe dọa coi Anthropic là mối đe dọa an ninh trong khi lời đe dọa kia lại xem Claude là yếu tố thiết yếu đối với an ninh quốc gia.
"Dù thế nào đi nữa, những lời đe dọa này không làm thay đổi lập trường của chúng tôi: chúng tôi không thể nào chấp thuận yêu cầu của họ một cách lương tâm", Amodei viết.
Tranh chấp xoay quanh hai điều kiện mà Anthropic đặt ra đối với việc sử dụng Claude cho mục đích quân sự. Công ty này cấm việc tự động nhắm mục tiêu vào các chiến binh địch và cấm giám sát hàng loạt công dân Mỹ. Lầu Năm Góc coi đây là những hạn chế không thể chấp nhận được đối với các hoạt động quân sự hợp pháp.
Tổ chức Anthropic cho biết “đề nghị cuối cùng” của Lầu Năm Góc, nhận được vào đêm thứ Tư, đã không giải quyết được những mối lo ngại cốt lõi của họ. “Ngôn ngữ mới được coi là sự thỏa hiệp lại đi kèm với những điều khoản pháp lý cho phép những biện pháp bảo vệ đó bị bỏ qua tùy ý”, một phát ngôn viên của Anthropic cho biết trong một tuyên bố, theo báo cáo của The Hill.
Người phát ngôn Bộ Quốc phòng Sean Parnell đã đưa ra tối hậu thư công khai vào thứ Năm. Ông cho Anthropic thời hạn đến 5:01 chiều giờ ET ngày thứ Sáu để cấp quyền truy cập không hạn chế vào Claude Gov — nếu không sẽ phải đối mặt với việc chấm dứt hợp tác và bị coi là rủi ro chuỗi cung ứng.
“Chúng tôi sẽ không để BẤT KỲ công ty nào chi phối các điều khoản liên quan đến cách chúng tôi đưa ra các quyết định vận hành,” Parnell viết trên X.
Diễn biến leo thang
Hôm thứ Ba, Amodei đã gặp trực tiếp Bộ trưởng Quốc phòng Pete Hegseth, trong đó các quan chức Lầu Năm Góc đã vạch ra ba hậu quả nếu không tuân thủ. Thứ nhất, bị loại khỏi các hệ thống quân sự. Thứ hai, bị xếp vào diện rủi ro chuỗi cung ứng, điều này sẽ cấm các nhà thầu quốc phòng khác sử dụng sản phẩm của Anthropic. Thứ ba, viện dẫn Đạo luật Sản xuất Quốc phòng năm 1950 để buộc công ty phải chuyển giao công nghệ của mình.
Trong bài đăng trên blog, Amodei lập luận rằng việc từ chối này cũng dựa trên thực tế kỹ thuật. Ông viết: “Các hệ thống AI tiên tiến đơn giản là không đủ tin cậy để vận hành các loại vũ khí hoàn toàn tự động”, và nói thêm rằng nếu không có sự giám sát thích hợp, các hệ thống như vậy “không thể được tin cậy để thực hiện khả năng phán đoán quan trọng mà các binh sĩ chuyên nghiệp, được đào tạo bài bản của chúng ta thể hiện hàng ngày”.
Thượng nghị sĩ đảng Cộng hòa Thom Tillis đã chỉ trích cách xử lý tranh chấp của Lầu Năm Góc. “Tại sao chúng ta lại phải thảo luận vấn đề này công khai? Đây không phải là cách để đối phó với một nhà cung cấp chiến lược”, Tillis nói với các phóng viên.
Điều gì đang bị Stake?
Đối với Anthropic, rủi ro trước mắt là hợp đồng quân sự trị giá 200 triệu đô la. Nhưng việc bị xếp vào nhóm rủi ro chuỗi cung ứng mang lại những hệ lụy rộng lớn hơn nhiều. Nó sẽ buộc mọi nhà thầu quốc phòng phải xác minh rằng họ không sử dụng sản phẩm của Anthropic trong hoạt động của mình.
Cảnh cạnh tranh đang thay đổi nhanh chóng. Theo Axios, xAI của Elon Musk đã ký một thỏa thuận sử dụng Grok trong các hệ thống mật, chấp nhận tiêu chuẩn "cho mọi mục đích hợp pháp" đối với công việc mật. OpenAI và Google đang đẩy nhanh các cuộc đàm phán để gia nhập lĩnh vực mật. Anthropic, từng là công ty AI duy nhất được phép sử dụng tài liệu mật, đang có nguy cơ mất hoàn toàn Lợi thế của người đi đầu .
Tại sao tiền điện tử nên chú ý
Việc Lầu Năm Góc sẵn sàng viện dẫn Đạo luật Sản xuất Quốc phòng chống lại một công ty công nghệ đã tạo ra một tiền lệ vượt ra ngoài lĩnh vực trí tuệ nhân tạo. Nếu chính phủ có thể hợp pháp buộc một công ty AI loại bỏ các hạn chế an toàn vì lý do an ninh quốc gia, thì về lý thuyết, khuôn khổ tương tự cũng có thể được áp dụng để buộc các công ty tiền điện tử phải sửa đổi các tính năng bảo mật hoặc làm suy yếu các biện pháp bảo vệ giao dịch.
Tình trạng bế tắc này cũng củng cố lập luận ủng hộ việc phát triển trí tuệ nhân tạo phi tập trung. Một nhà cung cấp trí tuệ nhân tạo tập trung có thể bị gây áp lực — hoặc bị buộc phải làm vậy theo pháp luật — để loại bỏ các biện pháp bảo vệ theo yêu cầu của chính phủ. Điều đó chứng thực luận điểm rằng các giải pháp phi tập trung cung cấp cơ sở hạ tầng kiên cường hơn trước sự cưỡng chế của nhà nước.
Sự phát triển nhanh chóng của Anthropic đã làm dấy lên những lo ngại cho thị trường tiền điện tử. Định giá 380 tỷ đô la của công ty và sự đột phá nhờ trí tuệ nhân tạo trong việc thay đổi doanh thu phần mềm truyền thống đang gây áp lực lên dòng vốn tín dụng tư nhân, vốn có mối tương quan chặt chẽ với Bitcoin.
Anthropic cũng có mối LINK (Chainlink) lịch sử với tiền điện tử: Quỹ phá sản của FTX nắm giữ một Stake đáng kể trong công ty ngay từ giai đoạn đầu, sau đó đã bán đi để giúp trả nợ cho các chủ nợ.
Hạn chót ngày thứ Sáu sẽ trôi qua, nhưng câu hỏi thực sự bắt đầu sau đó: liệu Lầu Năm Góc có thực hiện lời hứa hay không, và điều đó có ý nghĩa gì đối với mọi công ty công nghệ đang phân biệt giữa các hợp đồng chính phủ và tính toàn vẹn của sản phẩm.
Bài đăng "Anthropic từ chối tối hậu thư của Lầu Năm Góc, tạo tiền lệ cho tiền điện tử" xuất hiện lần đầu trên BeInCrypto.




