Mục lục lục
ToggleDario Amodei, Giám đốc điều hành của công ty trí tuệ nhân tạo Anthropic của Mỹ , mới đây đã nối lại các cuộc đàm phán với Bộ Quốc phòng Hoa Kỳ (Lầu Năm Góc) trong nỗ lực cuối cùng để đảm bảo các điều khoản hợp đồng cho việc sử dụng mô hình AI Claude của công ty cho mục đích quân sự. Động thái này diễn ra sau khi các cuộc đàm phán đổ vỡ vào tuần trước và Lầu Năm Góc xếp Anthropic vào danh sách " rủi ro Chuỗi cung ứng", nhằm ngăn chặn việc Anthropic bị loại khỏi hợp tác quân sự với Hoa Kỳ trong khi vẫn duy trì các nguyên tắc đạo đức cốt lõi của công ty.
Bối cảnh đàm phán và việc tuân thủ giới hạn đỏ
Năm ngoái, Anthropic đã ký một hợp đồng thí điểm trị giá lên tới 200 triệu đô la với Lầu Năm Góc, đưa Claude trở thành mô hình AI tiên tiến đầu tiên được phê duyệt triển khai trên một mạng lưới mật. Tuy nhiên, chính quyền Trump sau đó đã yêu cầu thay đổi các điều khoản, nhấn mạnh rằng AI phải được áp dụng cho "bất kỳ mục đích sử dụng hợp pháp nào" mà không có bất kỳ hạn chế nào.
Tuy nhiên, Anthropic kiên quyết giữ vững hai "giới hạn đỏ": cấm sử dụng Claude để giám sát diện rộng người dân Mỹ trong nước, và cấm sử dụng nó trong các hệ thống vũ khí tự động hoàn toàn (các hệ thống có thể lựa chọn và tấn công mục tiêu mà không cần sự can thiệp của con người). Anthropic cho rằng rằng những cách sử dụng như vậy có thể gây nguy hiểm cho các giá trị dân chủ và công nghệ AI hiện tại vẫn chưa đủ tin cậy. Tuy nhiên, Bộ trưởng Quốc phòng Pete Hegseth đã đưa ra tối hậu thư yêu cầu thỏa hiệp trong một khung thời gian nhất định, đe dọa chấm dứt hợp đồng và thực thi nó bằng cách viện dẫn các quy định liên quan, khiến các cuộc đàm phán gần như đổ vỡ vào thứ Sáu tuần trước.
Tiến triển mới nhất trong việc nối lại đàm phán
Theo các nguồn tin thân cận với vấn đề này, Amodei hiện đang đàm phán trực tiếp với Emil Michael, Thứ trưởng Bộ Quốc phòng phụ trách Nghiên cứu và Kỹ thuật, với mục tiêu đạt được một thỏa hiệp cho phép quân đội Mỹ tiếp tục sử dụng Claude đồng thời giảm đáng kể rủi ro Anthropic bị đưa vào danh sách đen chính thức.
Nếu thành công, hợp đồng mới có thể làm giảm căng thẳng và tác động đến bối cảnh cạnh tranh của ngành công nghiệp AI – ví dụ, OpenAI đã đạt được thỏa thuận với Lầu Năm Góc nhưng cũng đang điều chỉnh các điều khoản để bao gồm các hạn chế tương tự. Mặt khác, Anthropic nhấn mạnh sự sẵn sàng hợp tác liên tục của mình nhưng sẽ không từ bỏ các biện pháp bảo vệ cốt lõi; nếu không đạt được sự đồng thuận, công ty sẽ hỗ trợ quá trình chuyển giao suôn sẻ cho các nhà cung cấp khác để tránh ảnh hưởng đến các hoạt động quân sự.
Ý nghĩa của sự kiện và triển vọng tương lai
Vụ tranh cãi này làm nổi bật cuộc giằng co giữa các công ty trí tuệ nhân tạo và quân đội về vấn đề đạo đức, an ninh và an ninh quốc gia. Anthropic, tự định vị mình là một công ty "trí tuệ nhân tạo có trách nhiệm", từ chối đưa ra những nhượng bộ vô điều kiện, phản ánh những lo ngại sâu sắc của một số công ty ở Thung lũng Silicon về các ứng dụng quân sự của trí tuệ nhân tạo; mặt khác, Lầu Năm Góc nhấn mạnh tính linh hoạt trên chiến trường và ưu thế công nghệ.
Nếu các cuộc đàm phán diễn ra suôn sẻ, điều này có thể tạo ra một tiền lệ mới cho việc ứng dụng trí tuệ nhân tạo trong quân sự; ngược lại, nó cũng có thể làm trầm trọng thêm tình trạng phân mảnh trong ngành. Giới chuyên gia trong ngành dự đoán sẽ sớm có tuyên bố chính thức hoặc những diễn biến mới.



