Một bản ghi nhớ tối mật đã bị rò rỉ, trong đó Dario Amodei đã hoàn toàn phá vỡ hình ảnh của OpenAI, giận dữ lên án nó là một "trò hề an ninh" mà ai cũng có thể thấy. Tuy nhiên, không thể phủ nhận rằng Bộ Ngoại giao Hoa Kỳ đang phần lớn từ bỏ Claude để chuyển sang sử dụng GPT-4.1.
Cuối cùng tôi không thể kìm nén được nữa!
Sau khi Claude bị cấm hoàn toàn, Dario Amodei đã viết bản ghi nhớ nội bộ "điên rồ" nhất trong lịch sử Thung lũng Silicon—
Thỏa thuận giữa OpenAI và Lầu Năm Góc chỉ là một "màn kịch an ninh".
"Họ chỉ đang diễn kịch, cố gắng đánh lừa cả thế giới."
Amodei cũng thẳng thắn tuyên bố rằng chính phủ Mỹ không thích Anthropic chủ yếu vì họ không sẵn lòng cúi đầu và nịnh bợ nó.
Ông ta thậm chí còn trực tiếp nêu tên Chủ tịch OpenAI Greg và vợ ông, nói rằng họ đã quyên góp 25 triệu đô la cho Super PAC của Trump.
Bản ghi nhớ dài 1.600 từ này cho thấy nỗi lo lắng hiện tại của Amodei trong từng câu chữ.
Để giữ được các hợp đồng với chính phủ, hơn chục công ty công nghệ quốc phòng hiện đã phải đưa ra tối hậu thư cho nhân viên của mình: ngừng sử dụng Claude ngay lập tức!
Hơn nữa, các đơn đặt hàng trị giá hàng tỷ đô la của Anthropic với Google, Amazon và Microsoft sẽ phải trải qua quá trình kiểm tra nghiêm ngặt.
Trong khi đó, OpenAI, sau khi "thâu tóm" thị trường một cách thành công, đã nếm trải những thành công bước đầu.
Chatbot tự phát triển của chính phủ Mỹ, StateChat, đã chuyển đổi mô hình nền tảng chính của mình từ Claude sang GPT-4.1 chỉ sau một đêm.
Đúng vậy, văn bản gốc không ghi là 5.1, mà ghi là 4.1.
Không ngoa khi nói rằng mối quan hệ giữa Anthropic và OpenAI vô cùng căng thẳng, bầu không khí ngột ngạt như mùi thuốc súng.
Lên án "màn trình diễn an toàn" của Ultraman
CEO của Anthropic nổi cơn thịnh nộ
Trong bức thư dài gửi tới 2.000 nhân viên, Dario Amodei đã phát động một cuộc tấn công toàn diện vào hai đối thủ truyền kiếp của mình là OpenAI và Ultraman.
Amodei thẳng thắn chỉ ra rằng bế tắc không bắt nguồn từ những bất đồng về mặt kỹ thuật, mà là do Anthropic từ chối "lấy lòng" chính phủ hiện tại.
Thậm chí còn gây tranh cãi hơn, ông ta đã trực tiếp chỉ trích OpenAI vì đã có "kiểu khen ngợi độc đoán".
Trong bài báo, chính ông đã bày tỏ sự hoài nghi sâu sắc về biện pháp bảo vệ bảo mật mà OpenAI đã quảng bá.
Altman đã lần tuyên bố công khai rằng OpenAI và Bộ Quốc phòng đã đặt ra "giới hạn đỏ", đồng thời cũng bổ sung thêm một số điều khoản.
Nhưng một bài báo dài trên CNBC đã trực tiếp vạch trần bộ mặt "giả tạo" của Ultraman—
Hợp đồng nêu rõ rằng Lầu Năm Góc có thể sử dụng trí tuệ nhân tạo cho "tất cả các mục đích hợp pháp".
Altman cũng tuyên bố tại một cuộc họp nội bộ toàn thể nhân viên rằng OpenAI không có thẩm quyền quyết định cách Bộ Quốc phòng nên sử dụng mô hình GPT.
Amodei tuyên bố rằng trong khi Anthropic đang ở trong tình thế khó khăn, Altman đã lợi dụng tình hình và cố gắng làm suy yếu sự ủng hộ của công chúng để tạo thêm tự tin cho chính phủ áp dụng các biện pháp cứng rắn hơn đối với họ.
Lý do thực sự khiến Dow Jones và chính quyền Trump không thích Anthropic là:
• Chúng tôi không quyên góp tiền cho Trump (trong khi OpenAI và Greg đã quyên góp rất nhiều).
• Chúng tôi không hề ca ngợi Trump (nhưng Ultraman thì có);
• Chúng tôi ủng hộ việc điều chỉnh AI theo hướng có hại cho mục tiêu của chúng;
• Chúng tôi đã nói sự thật về nhiều vấn đề chính sách liên quan đến trí tuệ nhân tạo (chẳng hạn như vấn đề thất nghiệp);
• Chúng tôi tuân thủ nghiêm ngặt các quy định và không thông đồng với họ để thực hiện bất kỳ "màn kịch an toàn" nào nhằm đánh lừa nhân viên của chúng tôi.
Hiệu quả chỉ đạt 20%, phần còn lại chỉ là hình thức.
Trong bản ghi nhớ, Palantir đã đề xuất một giải pháp tiềm năng cho Anthropic thay mặt Lầu Năm Góc trong các cuộc đàm phán:
Một "bộ phân loại" hoặc hệ thống học máy được sử dụng để xác định xem ranh giới đỏ của chủ nghĩa nhân sinh đã bị vượt qua hay chưa.
Tuy nhiên, Amodei chỉ ra rằng các mô hình AI rất dễ bị "bẻ khóa".
Hơn nữa, Anthropic đã cân nhắc việc để nhân viên giám sát quá trình triển khai, nhưng cơ chế giám sát này chỉ có thể bao gồm các trường hợp sử dụng "cực kỳ hạn chế".
Ông thẳng thắn tuyên bố rằng những phương pháp này không hoàn toàn vô dụng.
Tuy nhiên, trong bối cảnh ứng dụng quân sự, nó có thể chỉ có hiệu quả thực tế khoảng 20%, 80% còn lại chỉ là "màn trình diễn an ninh" mà thôi.
Tuyên bố này bác bỏ trực tiếp những lời khẳng định của Ultraman, cho thấy rằng các thiết lập "đường đỏ" chỉ là sự tự lừa dối, với hiệu quả thực tế chỉ đạt 20%.
Amodei cũng tiết lộ thêm thông tin nội bộ, cho biết "lớp bảo mật" mà Palantir đang bán cho Anthropic (bao gồm cả OpenAI) chỉ là hình thức.
Khi các cuộc đàm phán sắp kết thúc vào tuần trước, Lầu Năm Góc đã đề nghị chấp nhận các điều khoản nếu công ty loại bỏ các điều khoản cụ thể liên quan đến "phân tích dữ liệu số lượng lớn".
Nhưng Anthropic không từ bỏ nguyên tắc của mình và từ chối thỏa hiệp.
"Một nhóm người rất dễ bị lừa."
Điều thú vị hơn nữa là Amodei cũng đề cập rằng kiểu tường thuật mang tính thao túng và xuyên tạc này không mấy hiệu quả với công chúng nói chung hay giới truyền thông.
Tuy nhiên, ông nói thêm rằng phương pháp này khá hiệu quả đối với một số người hướng dẫn "não tàn" trên X.
Mối lo ngại lớn nhất của ông là làm thế nào để đảm bảo rằng phương pháp này cũng sẽ không đánh lừa được các nhân viên của OpenAI.
Do hiệu ứng chọn lọc, họ là một nhóm người dễ bị lừa, nhưng điều đặc biệt quan trọng là phải chống lại các chiến thuật tẩy não mà Ultraman sử dụng để lừa gạt nhân viên của mình.
Claude buộc phải từ chức và cần gấp GPT-4.1.
Cơ cấu quyền lực trong giới trí tuệ nhân tạo của Thung lũng Silicon đã bị đảo lộn chỉ sau một đêm.
Hiện nay, Bộ Ngoại giao, Bộ Tài chính và Bộ Y tế và Dịch vụ Nhân sinh (HHS) của Hoa Kỳ — ba cơ quan cấp nội các — đều đã đưa ra các thông báo chính thức:
Hãy ngừng sử dụng tất cả các sản phẩm của Anthropic AI.
Điều này đánh dấu thêm một nhóm các cơ quan chính phủ quan trọng, sau quân đội Mỹ, chính thức nghiêng về phe của OpenAI và Google.
Nguồn gốc của "cuộc thanh trừng quy mô lớn" này bắt nguồn trực tiếp từ lệnh "cấm hoàn toàn" được ban hành tuần trước.
Do Anthropic và Lầu Năm Góc không đạt được thỏa thuận về an ninh AI quân sự, Trump đã trực tiếp ban hành một mệnh lệnh—
Tất cả các cơ quan chính phủ liên bang trên khắp Hoa Kỳ phải chấm dứt hợp đồng với Anthropic trong vòng sáu tháng.
Sau đó, Bộ trưởng Tài chính Scott Bessent, Cơ quan Tài chính Nhà ở Liên bang (FHFA), cùng Fannie Mae và Freddie Mac đã hoàn toàn "loại bỏ" Claude.
Sê-Ri hành động này chắc chắn là một đòn giáng mạnh vào Anthropic.
Từng là một công ty hàng đầu trong lĩnh vực trí tuệ nhân tạo phục vụ an ninh quốc gia tại Hoa Kỳ, giờ đây nó đang phải đối mặt với "sự khinh miệt của công chúng" từ chính phủ Mỹ.
Hãng Reuters đã có được một báo cáo độc quyền cho biết Bộ Y tế (HHS) đã chính thức thông báo cho nhân viên của mình rằng lệnh cấm có hiệu lực và yêu cầu họ chuyển sang sử dụng ChatGPT hoặc Gemini.
Ngay cả StateChat, chatbot do Bộ Ngoại giao Hoa Kỳ phát triển, cũng đã khẩn trương chuyển Claude sang GPT-4.1 .
Các báo cáo trước đây cho rằng tên lửa Claude của quân đội Mỹ có thể đạt cấp độ Opus 5.5; so với đó, GPT-4.1 có vẻ nhỏ bé đến khó tin.
Người phát ngôn Bộ Ngoại giao Tommy Pigott cho biết trong một email: "Để thực hiện chỉ thị của Tổng thống về việc hủy bỏ hợp đồng với Anthropic, chúng tôi đang tiến hành các biện pháp ngay lập tức để đảm bảo tất cả các dự án đều tuân thủ đầy đủ các quy định."
GPT-4.1 sẽ được phát hành vào tháng 4 năm 2025.
Giới công nghệ quốc phòng cắt đứt quan hệ với Claude chỉ sau một đêm để tự bảo vệ mình.
Như thể chỉ sau một đêm, Anthropic trở thành một con tốt bị bỏ rơi trong lĩnh vực công nghệ quốc phòng, tùy ý bị "bỏ rơi".
Để giành được các hợp đồng của chính phủ, một số lượng lớn các công ty công nghệ quốc phòng đã yêu cầu nhân viên của họ ngừng sử dụng Claude và chuyển sang các chương trình LLM khác.
Alexander Harstrick, một đối tác quản lý tại J2 Ventures, tiết lộ rằng 10 công ty trong danh mục đầu tư của ông đã khẩn trương tìm người thay thế Claude .
Thậm chí cả những gã khổng lồ trong ngành công nghiệp quốc phòng như Lockheed Martin cũng được cho là đang nỗ lực loại bỏ hoàn toàn Anthropic khỏi Chuỗi cung ứng của họ.
Harstrick thừa nhận: "Các công ty thay thế Claude không phải vì sản phẩm kém chất lượng, mà chỉ đơn thuần là để tránh rủi ro."
Đây là một cú sốc hoàn toàn đối với Anthropic.
Mới đây vào tháng Giêng, Dario Amodei cho biết: "80% thu nhập của chúng tôi đến từ khách hàng doanh nghiệp."
Vào cuối năm 2024, Anthropic đã thành công gia nhập hệ sinh thái của Bộ Quốc phòng thông qua quan hệ đối tác với nhà cung cấp dịch vụ phần mềm Palantir.
Ngày xưa, Claude là mô hình AI đầu tiên đột nhập vào mạng lưới thông tin mật của chính phủ và thậm chí còn ký được hợp đồng trị giá 200 triệu đô la. Ai mà ngờ được tình thế lại thay đổi nhanh đến vậy?
Lệnh cấm lần Lầu Năm Góc đã đột ngột chấm dứt độ sâu giữa Palantir, tập đoàn công nghệ quân sự-AI bí mật nhất Thung lũng Silicon, và Claude.
Trong số gần 4,5 tỷ đô la doanh thu tăng vọt năm ngoái, gã khổng lồ phần mềm Palantir đã nhận được một khoản tiền khổng lồ, lên tới 42%, trực tiếp từ chính phủ Hoa Kỳ.
Trong năm qua, Palantir không chỉ tích hợp Claude vào hệ thống của mình mà còn thực hiện những tùy chỉnh độ sâu dành riêng cho nền tảng phân tích và cơ sở dữ liệu cốt lõi của họ.
Sự kết nối giữa hai bên không chỉ đơn thuần là một cuộc gọi giao diện, mà là một sự hợp nhất sâu sắc, mang tính nền tảng.
Giờ đây, đứng trước lựa chọn hoặc là loại bỏ hoàn toàn Claude hoặc là hợp đồng với chính phủ bị hủy bỏ, Palantir đã không ngần ngại chọn phương án thứ hai.
Một nhà đầu tư mạo hiểm trong lĩnh vực công nghệ quốc phòng cho biết bất kỳ công ty hợp pháp nào làm ăn với chính phủ liên bang sẽ không chỉ đặt cược vào một nhà cung cấp duy nhất.
Do đó, việc dừng Anthropic sẽ không gây ra bất kỳ vấn đề lớn nào.
Vì lý do này, Anthropic tiếp tục tuân thủ "hai nguyên tắc cốt lõi" về an ninh, từ chối cho phép quân đội Hoa Kỳ sử dụng Claude để định vị vũ khí tự động và giám sát nhân sự.
Trong khi đó, đối thủ lâu năm của nó là OpenAI rõ ràng "khôn ngoan" hơn nhiều.
Ông Altman không chỉ nhanh chóng lấp đầy khoảng trống trong Bộ Quốc phòng mà còn linh hoạt điều chỉnh các điều khoản, hứa sẽ không "cố ý" do thám công dân Mỹ.
Ngoài ra, chính phủ Mỹ cũng đã ký hợp đồng với Google, Musk xAI và Grok, lần lượt cho Gemini và Grok.
Hàng tỷ đô la đang phải đối mặt với sự giám sát chặt chẽ.
Không chỉ các hợp tác với các công ty công nghệ quốc phòng bị ảnh hưởng nghiêm trọng, mà ngay cả các mối quan hệ đối tác của Anthropic với các công ty công nghệ lớn cũng có thể bị "cắt đứt".
Việc mô tả " rủi ro Chuỗi cung ứng" đã gây ra những lo ngại trong số các đối tác của Anthropic.
Như mọi người đều biết, Amazon từng là nhà tài trợ tài chính lớn nhất của Anthropic, đầu tư 8 tỷ đô la vào công ty này.
Hầu hết các dịch vụ trí tuệ nhân tạo của Anthropic, được công ty bán trực tiếp cho khách hàng doanh nghiệp, đều chạy trên máy chủ AWS.
Đổi lại, Anthropic cũng sẽ chia sẻ một phần thu nhập thu được từ việc bán Claude AI cho khách hàng của AWS với Amazon.
Hơn nữa, Google đã đầu tư hàng tỷ đô la vào đó và vận hành Claude trên các máy chủ đám mây của mình.
Năm ngoái, có thông tin cho rằng Anthropic sẵn sàng chi 25 tỷ đô la để mua gần 1 triệu chip TPU v7.
Anthropic dự kiến sẽ trả ít nhất 80 tỷ đô la cho Amazon, Google và Microsoft vào năm 2029 để vận hành Claude AI trên máy chủ đám mây của họ, một con số cao hơn nhiều so với khoảng 3 tỷ đô la đã trả vào năm ngoái.
Tuy nhiên, nếu gắn chặt nhãn " rủi ro Chuỗi cung ứng", Anthropic sẽ đối mặt với nguy cơ bị xóa sổ.
Điều này có nghĩa là các đối tác cốt lõi, bao gồm Amazon, Google và Microsoft, có thể buộc phải cắt đứt quan hệ với họ.
Một bản ghi nhớ dài nghìn từ đã tiết lộ
Cuối cùng, đây là toàn văn bản ghi nhớ dài nghìn từ của Amodei, đã được biên tập lại để dễ hiểu hơn:
Cuộn lên xuống để xem
Tham khảo: YHK
https://www.theinformation.com/articles/anthropic-ceo-told-employees-openai-pentagon-deal-safety-theater
https://www.theinformation.com/articles/read-anthropic-ceos-memo-attacking-openais-mendacious-pentagon-announcement
https://www.theinformation.com/articles/next-anthropics-showdown-defense-department
Treasury
Bài viết này được đăng tải từ tài khoản WeChat chính thức "New Zhiyuan" , tác giả: New Zhiyuan, và được xuất bản với sự cho phép của 36Kr.


