OpenAI tuyên bố có "giới hạn đỏ" về an toàn trong thỏa thuận với Lầu Năm Góc—nhưng người dùng không tin điều đó.

Bài viết này được dịch máy
Xem bản gốc

Cuối tuần qua, OpenAI tuyên bố đã đạt được thỏa thuận với Lầu Năm Góc về việc triển khai các hệ thống trí tuệ nhân tạo tiên tiến trong môi trường mật, đánh dấu sự mở rộng đáng kể hoạt động hợp tác giữa công ty với quân đội Mỹ.

Thông báo này được đưa ra chưa đầy 24 giờ sau khi chính quyền Trump đưa Anthropic vào danh sách đen , coi công ty AI đối thủ này là "mối nguy hại cho chuỗi cung ứng an ninh quốc gia" sau tranh chấp về ngôn ngữ hợp đồng liên quan đến giám sát và vũ khí tự động.

Tổng thống Donald Trump cũng chỉ đạo các cơ quan liên bang ngừng ngay lập tức việc sử dụng công nghệ của Anthropic, với việc Bộ trưởng Treasury Scott Bessent viết trên X hôm thứ Hai rằng cơ quan này “đang chấm dứt mọi việc sử dụng các sản phẩm của Anthropic, bao gồm cả việc sử dụng nền tảng Claude của họ, trong bộ của chúng tôi.”

Thời điểm công bố các thông tin về trí tuệ nhân tạo đã khiến thỏa thuận của OpenAI bị giám sát chặt chẽ. Trong một bài đăng chi tiết trên blog, công ty đã vạch ra những gì họ mô tả là "giới hạn đỏ" rõ ràng và các biện pháp bảo vệ nhiều lớp chi phối quan hệ đối tác với Lầu Năm Góc.

Thỏa thuận này, như được OpenAI trình bày , đặt ra những câu hỏi rộng hơn về cách thức quản lý các hệ thống AI trong bối cảnh an ninh quốc gia, và cách các hạn chế mà công ty này nêu ra sẽ được hiểu và thực thi trên thực tế.

Bài đăng trên blog của OpenAI mở đầu bằng ba cam kết được coi là không thể thương lượng: không sử dụng công nghệ của họ cho mục đích giám sát dân cư quy mô lớn trong nước, điều khiển độc lập các hệ thống vũ khí tự hành, hoặc cho các quyết định tự động có tính rủi ro cao như chấm điểm tín dụng xã hội.

Tiếp theo là ngôn ngữ hợp đồng thực tế — điều mà OpenAI gọi là "ngôn ngữ liên quan", chứ không phải "toàn bộ thỏa thuận".

OpenAI cho biết: "Bộ Chiến tranh có thể sử dụng hệ thống AI cho tất cả các mục đích hợp pháp, phù hợp với luật hiện hành, các yêu cầu hoạt động và các quy trình an toàn và giám sát đã được thiết lập."

Đó chính xác là cụm từ mà Anthropic cho rằng chính phủ đã yêu cầu trong suốt quá trình đàm phán. Và cũng chính xác là cụm từ mà Anthropic đã từ chối chấp nhận. OpenAI đã ký vào đó, nhưng vẫn khẳng định các điều khoản giới hạn của mình vẫn được giữ nguyên.

Tuy nhiên, trong bối cảnh an ninh quốc gia, "hợp pháp" không phải là một ranh giới cố định—nó nằm trong một tập hợp các đạo luật, sắc lệnh hành pháp, chỉ thị nội bộ và thường là các diễn giải pháp lý được phân loại mật. Khi một hợp đồng cho phép "tất cả các mục đích hợp pháp", giới hạn thực tế trở thành khuôn khổ pháp lý hiện hành của chính phủ, chứ không phải là một tiêu chuẩn độc lập do nhà cung cấp đặt ra.

Điều khoản về vũ khí nêu rõ rằng hệ thống AI "sẽ không được sử dụng để tự điều khiển vũ khí tự hành trong bất kỳ trường hợp nào mà luật pháp, quy định hoặc chính sách của bộ yêu cầu sự kiểm soát của con người."

Lệnh cấm này chỉ áp dụng khi một cơ quan có thẩm quyền khác đã yêu cầu sự kiểm soát của con người — nó hoàn toàn dựa trên chính sách hiện hành, cụ thể là Chỉ thị 3000.09 của Bộ Quốc phòng. Chỉ thị đó yêu cầu các hệ thống tự động cho phép các chỉ huy thực hiện "mức độ phán đoán phù hợp của con người đối với việc sử dụng vũ lực".

Và khái niệm "phù hợp" thì hoàn toàn mang tính chủ quan.

Phán đoán của con người không đồng nghĩa với sự kiểm soát của con người. Sự khác biệt này không phải là ngẫu nhiên. Các học giả về quốc phòng đã lưu ý rằng việc bỏ qua cụm từ "con người tham gia vào quy trình" là có chủ ý , chính xác là để duy trì tính linh hoạt trong hoạt động.

Lý lẽ phản bác mạnh mẽ nhất của OpenAI là kiến ​​trúc triển khai chỉ dựa trên đám mây của họ — các vòng lặp quyết định tự động gây chết người hoàn toàn sẽ yêu cầu triển khai tại chỗ trên các thiết bị chiến trường, điều mà hợp đồng này không cho phép. Đó là một hạn chế kỹ thuật thực sự.

Tuy nhiên, AI dựa trên điện toán đám mây vẫn có thể thực hiện nhận dạng mục tiêu, phân tích hành vi và lập kế hoạch nhiệm vụ. Đó là các hoạt động trong chuỗi tiêu diệt mục tiêu, bất kể điểm kích hoạt cuối cùng nằm ở đâu. Kết quả đối với mục tiêu không khác nhau dựa trên việc mô hình chạy trên máy chủ nào.

Điều khoản giám sát cũng tuân theo mô hình tương tự. Giới hạn đỏ mà OpenAI đặt ra: không giám sát hàng loạt trong nước. Ngôn ngữ hợp đồng: Hệ thống "không được sử dụng để giám sát thông tin cá nhân của công dân Hoa Kỳ một cách không hạn chế theo các thẩm quyền này"—sau đó liệt kê Tu chính án thứ tư, FISA và Sắc lệnh hành pháp 12333.

Từ "không bị hạn chế" ngụ ý rằng một phiên bản giám sát hàng loạt có giới hạn sẽ được cho phép. Và Sắc lệnh hành pháp 12333 là sắc lệnh mà NSA đã sử dụng để biện minh cho việc chặn bắt thông tin liên lạc của người Mỹ khi việc này được thực hiện bên ngoài biên giới Hoa Kỳ.

Và đây là lúc những lo ngại của Anthropic về cách diễn đạt trong suốt quá trình đàm phán trở nên rõ ràng. Lập luận của Anthropic là luật hiện hành chưa bắt kịp với những gì trí tuệ nhân tạo (AI) có thể làm được. Chính phủ có thể hợp pháp mua một lượng lớn dữ liệu thương mại tổng hợp về người Mỹ mà không cần lệnh khám xét—và đã làm như vậy rồi .

Ngôn ngữ hợp đồng của OpenAI, bằng cách neo giữ các biện pháp bảo vệ của mình vào các khuôn khổ pháp lý hiện có, có thể không thu hẹp được khoảng cách mà Anthropic thực sự lo ngại.

Tối thứ Bảy, Altman đã tổ chức một buổi hỏi đáp trực tuyến (AMA) để trả lời hàng nghìn câu hỏi về thỏa thuận này. Khi được hỏi điều gì sẽ khiến OpenAI từ bỏ quan hệ đối tác với chính phủ, ông trả lời: "Nếu chúng tôi được yêu cầu làm điều gì đó vi hiến hoặc bất hợp pháp, chúng tôi sẽ từ bỏ."

Cách lập luận đó đặt giới hạn của OpenAI ở khía cạnh pháp lý—chứ không phải ở phán xét đạo đức độc lập về việc công ty sẽ cho phép hay không cho phép điều gì nếu điều đó hợp pháp, điều mà Anthropic đang bảo vệ. Khi được hỏi liệu ông có lo lắng về những tranh chấp trong tương lai về những gì được coi là "hợp pháp" hay không, ông thừa nhận rủi ro: "Nếu chúng tôi phải tham gia vào cuộc chiến đó, chúng tôi sẽ làm, nhưng rõ ràng điều đó khiến chúng tôi gặp một số rủi ro."

Về lý do tại sao OpenAI đạt được thỏa thuận trong khi Anthropic thì không, Altman đưa ra nhận định: "Anthropic dường như tập trung hơn vào các điều khoản cấm cụ thể trong hợp đồng, thay vì viện dẫn các điều luật hiện hành, điều mà chúng tôi cảm thấy thoải mái. Rõ ràng là tôi thích dựa vào các biện pháp bảo vệ kỹ thuật hơn nếu chỉ được chọn một. Tôi nghĩ Anthropic có thể muốn kiểm soát hoạt động nhiều hơn chúng tôi."

Đó là sự khác biệt triết học cơ bản. Anthropic lập luận rằng vì các mô hình tiên tiến có thể được tái sử dụng cho các quy trình tình báo và quân sự theo những cách khó lường trước, nên các giới hạn cần phải được nêu rõ ràng và ràng buộc bằng văn bản, ngay cả khi phải trả giá bằng việc hủy bỏ thỏa thuận. Quan điểm của OpenAI là kiến ​​trúc kỹ thuật, nhân sự nội bộ và luật hiện hành cùng nhau tạo thành một biện pháp bảo vệ mạnh mẽ hơn so với chỉ dựa vào văn bản hợp đồng.

Phản ứng dữ dội diễn ra ngay lập tức. Đến thứ Hai, phong trào “ QuitGPT ” tuyên bố rằng hơn 1,5 triệu người đã hành động—hủy đăng ký, chia sẻ các bài đăng kêu gọi tẩy chay hoặc đăng ký tại quitgpt.org.

Chiến dịch này cho rằng động thái của OpenAI ưu tiên các hợp đồng quân sự hơn sự an toàn của người dùng, cáo buộc công ty đã đồng ý cho Lầu Năm Góc sử dụng công nghệ của mình cho "bất kỳ mục đích hợp pháp nào, bao gồm cả robot sát thủ và giám sát hàng loạt".

OpenAI có thể phản bác nhận định đó. Nhưng thị trường vẫn tiếp tục biến động.

Ứng dụng Claude của Anthropic đã vượt qua ChatGPT để trở thành ứng dụng miễn phí được tải xuống nhiều nhất tại Hoa Kỳ trên App Store của Apple, công ty này cho biết với Decrypt rằng họ đã ghi nhận số lượng đăng ký hàng ngày kỷ lục vào cuối tuần.

Ngôi sao nhạc pop Katy Perry đã chia sẻ ảnh chụp màn hình trang giá cả của Claude trên X. Hàng trăm người dùng đã công khai việc hủy đăng ký của họ trên Reddit. Những dòng chữ graffiti ca ngợi Anthropic xuất hiện bên ngoài văn phòng của công ty tại San Francisco, trong khi vỉa hè của OpenAI bị vẽ bậy bằng phấn . Thậm chí hàng trăm nhân viên của chính OpenAI trước đó đã ký một bức thư ngỏ ủng hộ việc Anthropic từ chối đáp ứng các yêu cầu của Lầu Năm Góc.

Cách diễn đạt của QuitGPT rất thuyết phục về mặt cảm xúc, nhưng không hoàn toàn chính xác. Bản thân Anthropic có mối quan hệ đối tác với Palantir và Amazon Web Services, cho phép các cơ quan tình báo và bộ quốc phòng Hoa Kỳ truy cập vào các mô hình Claude, và được cho là đã được sử dụng trong các hoạt động quân sự nhằm lật đổ chính phủ VenezuelaIran . Vấn đề đạo đức của trí tuệ nhân tạo và việc ký kết hợp đồng an ninh quốc gia chưa bao giờ rõ ràng ở cả hai phía.

Chiến dịch này đã nắm bắt chính xác thực tế rằng một bộ phận lớn người dùng tin rằng có sự khác biệt đáng kể giữa cách hai công ty đặt ra giới hạn – và họ đã thể hiện điều đó bằng cách hủy đăng ký dịch vụ.

Liệu sự khác biệt đó có thực sự quan trọng như vẻ bề ngoài hay không cần phải đọc kỹ hợp đồng.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận