Mục lục lục
ToggleQuân đội Mỹ đang vũ khí hóa trí tuệ nhân tạo (AI) với tốc độ chưa từng có.
Bộ Quốc phòng Hoa Kỳ (Lầu Năm Góc) hôm thứ Sáu (ngày 1) thông báo đã đạt được thỏa thuận với bảy công ty công nghệ hàng đầu, cho phép quân đội sử dụng cơ sở hạ tầng và mô hình trí tuệ nhân tạo của họ trên các mạng máy tính mật nhằm mục đích giành được ưu thế vượt trội trên chiến trường hiện đại luôn thay đổi.
Bảy công ty lớn gia nhập; hệ thống trí tuệ nhân tạo GenAI.mil chính thức ra mắt.
Danh sách ấn tượng các tổ hợp công nghiệp quân sự này bao gồm: Google, Microsoft, Amazon AWS, Nvidia, OpenAI, Reflection và SpaceX dưới sự lãnh đạo của Elon Musk.
Bộ Quốc phòng tuyên bố rằng các nguồn lực của những công ty này sẽ giúp "nâng cao khả năng ra quyết định của binh lính trong hoàn cảnh tác chiến phức tạp". Lầu Năm Góc lưu ý rằng các quân nhân đã và đang sử dụng các chức năng AI này thông qua một nền tảng chính thức có tên GenAI.mil , giúp giảm đáng kể nhiệm vụ tốn nhiều thời gian trước đây xuống còn vài ngày.
Giám đốc Công nghệ Lầu Năm Góc Emil Michael đã đích thân nhắc đến Nvidia và công ty khởi nghiệp Reflection. Cả hai công ty đều cung cấp "các mô hình AI mã nguồn mở", điều mà Michael coi là ưu tiên chiến lược, nhằm tạo ra một "lựa chọn thay thế của Mỹ" để đối trọng với các hệ thống AI mã nguồn mở đang phát triển nhanh chóng của Trung Quốc.
Tổ chức Anthropic xung đột với chính quyền Trump về những cáo buộc "AI có thể giết người".
Tuy nhiên, sự vắng mặt của gã khổng lồ trí tuệ nhân tạo Anthropic lại nổi bật một cách rõ rệt trong buổi lễ kỷ niệm này do quân đội và Thung lũng Silicon tổ chức.
Theo các báo cáo, Anthropic đã vượt qua các giới hạn đạo đức trong quá trình đàm phán. Công ty này yêu cầu các điều khoản đảm bảo rõ ràng trong hợp đồng rằng quân đội Hoa Kỳ "sẽ không sử dụng công nghệ của họ cho vũ khí tự động hoàn toàn hoặc để giám sát công dân Hoa Kỳ."
Yêu cầu này đã khiến các quan chức cấp cao ở Washington vô cùng tức giận. Bộ trưởng Quốc phòng Pete Hegseth đã có lập trường cứng rắn, yêu cầu công ty cho phép Lầu Năm Góc sử dụng công nghệ của họ cho "bất kỳ mục đích hợp pháp nào". Sau đó, Tổng thống Donald Trump đã cố gắng áp đặt lệnh cấm toàn diện đối với việc các cơ quan liên bang sử dụng chatbot Claude của Anthropic; Hegseth còn cố gắng gán cho công ty này nhãn hiệu " rủi ro Chuỗi cung ứng". Cuối cùng, Anthropic đã chọn cách kiện chính quyền Trump ra tòa.
OpenAI nắm bắt cơ hội để lấp đầy khoảng trống này, nhưng các chuyên gia cảnh báo về "sự thiên vị do tự động hóa".
Sau khi Anthropic rút lui, OpenAI nhanh chóng đạt được thỏa thuận với Lầu Năm Góc vào tháng 3 năm nay, thay thế Anthropic bằng ChatGPT. Trong một tuyên bố hôm thứ Sáu, OpenAI không giấu giếm sự ủng hộ của mình đối với quân đội: "Như chúng tôi đã nói khi công bố thỏa thuận cách đây vài tháng, chúng tôi tin chắc rằng những người bảo vệ nước Mỹ nên có những công cụ tốt nhất trên thế giới." Tuy nhiên, các nguồn tin cũng tiết lộ rằng OpenAI cũng đã đảm bảo một điều khoản trong hợp đồng quy định rằng "cần có sự giám sát của con người khi AI hoạt động tự động."
Khi trí tuệ nhân tạo (AI) nhanh chóng thâm nhập vào các hệ thống chỉ huy, các vấn đề về đạo đức và rủi ro đang nổi lên. Helen Toner, quyền giám đốc điều hành của Trung tâm An ninh và Công nghệ Mới nổi tại Đại học Georgetown (và là cựu thành viên hội đồng quản trị của OpenAI), cảnh báo rằng mặc dù AI rất giỏi trong việc tóm tắt thông tin tình báo và hình ảnh giám sát, quân đội không được quá phụ thuộc vào công nghệ này.
Có một hiện tượng gọi là "thiên kiến tự động hóa", trong đó mọi người có xu hướng cho rằng máy móc hoạt động tốt hơn so với thực tế.
Dựa trên trường hợp gần đây của việc Israel dựa lượng lớn vào trí tuệ nhân tạo (AI) đánh dấu mục tiêu trong cuộc xung đột Gaza-Lebanon, dẫn đến nhiều thương vong dân thường, thách thức trong việc tìm ra sự cân bằng giữa việc theo đuổi lợi thế chiến lược và duy trì đạo đức cơ bản của con người sẽ là thử thách khắc nghiệt nhất còn lại đối với toàn nhân loại trong kỷ nguyên AI.





