Những gã khổng lồ AI tiến vào khu rừng đen.

Bài viết này được dịch máy
Xem bản gốc

Bài viết của Xiang Xianzhi

Trong tiểu thuyết *Tam Thể Vấn Đề*, Lưu Từ Tích đã sử dụng một hình ảnh được trích dẫn vô số lần kể từ đó - khu rừng tối. Mỗi nền văn minh đều là một kẻ săn mồi có vũ trang; ai lộ diện trước sẽ chết. Khu rừng không hề trống rỗng; mọi người đều biết rằng bật đèn sẽ thu hút đạn, vì vậy mọi người đều tắt đèn.

Vào mùa xuân năm 2026, các phòng thí nghiệm AI hàng đầu đã bước vào khu rừng rậm rạp này.

Vào ngày 16 tháng 4, Anthropic đã phát hành Claude Opus 4.7. Cùng ngày, họ đã có một động thái bất thường — công khai thừa nhận rằng hiệu năng của Opus 4.7 kém hơn so với một mẫu chưa được phát hành, Mythos, với lý do lo ngại về vấn đề an toàn.

Ngày 23 tháng 4, OpenAI phát hành GPT-5.5 trên trang web chính thức của mình. Cùng ngày, Anthropic đăng tải một bài cập nhật trên blog chính thức với tiêu đề "Cập nhật về các báo cáo chất lượng Claude Code gần đây", thừa nhận rằng Claude Code thực sự đã trở nên kém hiệu quả hơn trong tháng qua - một bên phát hành phiên bản mới, bên kia sửa lỗi. Nhưng "nhà vô địch mới" này dường như đang khoe khoang: Chúng tôi thừa nhận Claude tạm thời trở nên kém hiệu quả hơn - nhưng đừng quên, chúng tôi vẫn còn Mythos đang được cất giấu.

Vào ngày 24 tháng 4, bản xem trước DeepSeek V4 "sức mạnh bí ẩn phương Đông" đã được ra mắt, và nhóm của Liang Wenfeng lần chính thức công bố sự tích hợp độ sâu của mẫu điện thoại này với Huawei Ascend 950PR; nhưng mọi người đều hiểu rằng chiếc V4 Pro Max "đầy đủ sức mạnh" thực sự sẽ không được phát hành cho đến khi siêu chip Ascend 950 được sản xuất hàng loạt vào nửa cuối năm nay.

Ba công ty, ba hành động. Thoạt nhìn, đó là lịch trình phát triển sản phẩm riêng của mỗi công ty, nhưng khi xem xét cùng nhau, một điều nổi bật lên:

Mỗi công ty đều nắm giữ ít nhất một "vũ khí" – một mẫu mạnh hơn phiên bản hiện có trên thị trường, một kiến ​​trúc thế hệ tiếp theo chưa được công bố rộng rãi, và một siêu nút chip chưa được triển khai phổ biến. Nhưng không ai dám giơ vũ khí này lên trước tiên .

Bởi vì trong ngành này, cái giá phải trả cho việc "tiết lộ" không bao giờ đơn giản chỉ là rò rỉ bí mật. Tiết lộ có nghĩa là trao giới hạn khả năng cao nhất của bạn cho đối thủ cạnh tranh làm chuẩn mực; có nghĩa là trở thành người đầu tiên gánh chịu sự giám sát an ninh, các quy định ngày càng chặt chẽ và áp lực dư luận; có nghĩa là biến mình thành mục tiêu di động cho tất cả các đối thủ cạnh tranh trong vòng tiếp theo. Không có sự anh hùng nào trong khu rừng này - bất cứ ai nổ súng trước đều trở thành mục tiêu tiếp theo.

Do đó, lựa chọn hợp lý nhất đối với những người đi săn là tắt đèn, nín thở và giấu vũ khí ra sau lưng.

Đây là giải pháp tối ưu trong trò chơi.

Sự dũng cảm của Anthropic

Ngược lại, Claude lại có một trong những sản phẩm âm nhạc tệ nhất trong tháng vừa qua.

Mặc dù đã cập nhật lên Opus 4.7 từ khá sớm, Anthropic vẫn tiếp tục thống trị nhiều bảng xếp hạng và cũng chỉ cung cấp Mythos cho khách hàng doanh nghiệp - một cách tiếp cận có vẻ khá thong thả.

Tuy nhiên, giai đoạn của Opus 4.7 lại gần như là trải nghiệm người dùng tồi tệ nhất đối với Claude, với "hàng loạt đánh giá tiêu cực".

Đầu tháng 3, Anthropic đã thay đổi độ sâu suy luận mặc định của Claude Code từ cao xuống trung bình. Lý do đằng sau quyết định này khá dễ hiểu: ở chế độ cao, giao diện người dùng thường bị đơ, phản hồi chậm chạp khiến người dùng trả phí rất khó chịu. Tuy nhiên, vấn đề là họ đã không thông báo điều này vào thời điểm đó.

Vào cuối tháng 3, một "tối ưu hóa hiệu quả" khác đã được triển khai—nếu một phiên Claude Code không hoạt động trong hơn một giờ, hệ thống sẽ xóa các khối suy luận cũ. Điều này được thiết kế để tiết kiệm tỷ lệ băm. Tuy nhiên, trên thực tế, sau mỗi vòng đối thoại, Claude dường như bị mất trí nhớ, hoàn toàn quên mất ngữ cảnh . Cộng đồng nhà phát triển đã lượng lớn lời phàn nàn trong nhiều tuần: "Claude bắt đầu quên những gì tôi yêu cầu nó làm trong vòng trước."

Gần đây, một điều thứ ba đã xảy ra — một lệnh để giảm độ chi tiết đã được thêm vào dấu nhắc hệ thống. Theo chính Anthropic, lệnh này đã trực tiếp làm giảm chất lượng mã hóa của Claude Code xuống 3%.

Ba yếu tố kết hợp lại đã dẫn đến tuyên bố được viết bởi một giám đốc cấp cao tại AMD trên GitHub: "Claude đã thoái hóa đến mức không thể tin tưởng để thực hiện các tác vụ kỹ thuật phức tạp." Bài báo ngày 16 tháng 4 của Axios, "Việc hạ cấp AI của Anthropic gây khó chịu cho người dùng chuyên nghiệp," đã đưa vấn đề này đến sự chú ý của công chúng.

Sau đó, Anthropic thừa nhận rằng quả thực có một vấn đề.

Tìm kiếm sâu

Ngày 7 tháng 4, họ lặng lẽ hoàn tác các điều chỉnh đã thực hiện đối với nỗ lực suy luận; ngày 10 tháng 4, họ sửa lỗi bộ nhớ đệm; và ngày 20 tháng 4, họ loại bỏ các lời nhắc hệ thống để nén độ chi tiết. Tuy nhiên, báo cáo đánh giá sự cố thực tế không được công bố cho đến ngày 23 tháng 4 — trùng với ngày GPT-5.5 được phát hành rộng rãi.

Thái độ coi thường này, pha lẫn chút "Ồ, chiến lược kỹ thuật của tôi có lỗi, hãy sửa nó đi," lại trùng khớp gần như hoàn toàn với thông báo quan trọng của OpenAI. Khó có thể gọi đó là sự trùng hợp ngẫu nhiên.

Điều thú vị hơn nữa là khi Opus 4.7 được phát hành, Anthropic đã có một động thái bất thường: công khai thừa nhận rằng hiệu năng của Opus 4.7 kém hơn so với một mẫu chưa được phát hành – Mythos. Rõ ràng đây là một "sự rút lui chiến lược" – Anthropic đang giữ lại những khả năng mạnh nhất của mình cho mục đích sử dụng trong doanh nghiệp và không vội vàng phát hành chúng cho công chúng, bởi vì nhóm chưa sẵn sàng phát hành Mythos .

Luận điểm này nghe có vẻ hợp lý. Tuy nhiên, xét từ góc độ kinh doanh, nửa còn lại cũng đúng: Anthropic đã chờ sáu tuần trước khi công khai thừa nhận sự suy giảm hiệu năng của Claude Code, và chỉ đề cập đến vấn đề này khi OpenAI sắp công bố thông tin mới. Nếu không có áp lực rất lớn từ các đối thủ cạnh tranh, và nếu Opus 4.7 không chứng minh được rằng "chúng tôi vẫn còn phương án dự phòng", thì tuyên bố này có lẽ sẽ không bao giờ được đưa ra.

Theo quan điểm của Claude, "bóp kem đánh răng" không có nghĩa là cố tình làm suy yếu khả năng, mà là tốc độ phát hành khả năng và công bố vấn đề nên theo kịp tốc độ của các đối thủ cạnh tranh.

Việc phô diễn những khả năng tiên tiến nhất của họ chắc chắn sẽ khiến họ trở thành mục tiêu. Hoặc, theo quan điểm của Anthropic, áp lực từ phiên bản 4.6 đối với các đối thủ cạnh tranh vẫn chưa giảm bớt — vì vậy không cần thiết phải tung ra những quân bài mạnh hơn nữa vào lúc này.

Những mánh khóe cũ của OpenAI

Nếu Anthropic đang "giữ kín một hệ thống Mythos", thì cách tiếp cận của OpenAI thậm chí còn tinh tế hơn - họ để việc phát hành các tính năng tùy thuộc vào đường cong tải máy chủ và cơ chế phân cấp gọi là auto-router.

Vào ngày 23 tháng 4, cùng ngày GPT-5.5 được phát hành, Simon Willison (đồng sáng lập framework Django và có tiếng trong cộng đồng AI) đã viết một tuyên bố thận trọng trên blog của mình: "Nó không phải là một sự thay đổi đột phá so với những gì chúng ta đã có trước đây."

Tìm kiếm sâu

Sau đó, ông bổ sung thêm một thông tin quan trọng: GPT-5.5 là mô hình cơ sở được huấn luyện lại hoàn toàn lần mà OpenAI phát hành kể từ GPT-4.5; nói cách khác, các phiên bản 5.1, 5.2, 5.3 và 5.4 được phát hành trong sáu tháng qua đều là các bản cập nhật nhỏ. Nói cách khác, OpenAI đã trì hoãn việc phát hành lần bản cập nhật nhỏ này vì họ không biết các đối thủ cạnh tranh sẽ phát hành những gì.

Có một cách dễ hiểu hơn để hình dung việc "giảm thiểu nỗ lực khi cập nhật": giống như việc bóp kem đánh răng vậy.

Nhưng một cảnh tượng đáng nhớ hơn nữa đã xảy ra chỉ vài giờ sau khi GPT-5.5 chính thức hoạt động. Một người dùng Codex đã gửi Vấn đề #19241 trên GitHub, phàn nàn rằng mặc dù chế độ Nhanh ban đầu rất nhanh, nhưng nó đã chậm lại rõ rệt khi có thêm nhiều người dùng được thêm vào, nhưng phí vẫn được tính dựa trên gói Nhanh. Lời lẽ khá quen thuộc: "Vui lòng điều tra xem chế độ Nhanh của GPT-5.5 có bị hạ cấp khi tải cao hay không."

Đây gần như là một bản sao chính xác của những gì đã xảy ra vào ngày 7 tháng 8 năm 2025, ngày GPT-5 được phát hành lần đầu tiên — vào dịp đó, cộng đồng Reddit r/ChatGPT đã đẩy bài đăng "GPT-5 thật tệ" lên hơn 4600 lượt bình chọn tích cực, và chính Sam Altman đã thừa nhận trong một buổi hỏi đáp trực tuyến vào ngày hôm sau rằng "bộ chuyển đổi tự động đã bị hỏng... GPT-5 có vẻ kém thông minh hơn nhiều" — thừa nhận rằng bộ định tuyến đã tự động hạ cấp firmware cho người dùng.

Kịch bản tương tự lại lặp lại tám tháng sau đó.

Điều trớ trêu hơn nữa là, một ngày trước khi GPT-5.5 chính thức được phát hành, Codex của OpenAI đã vô tình triển khai môi trường thử nghiệm nội bộ lên môi trường sản xuất. Một số người dùng chuyên nghiệp đã chụp ảnh màn hình, và sự cố đã nhanh chóng được khắc phục trong vòng vài phút, nhưng nội dung bị rò rỉ đã lan truyền rộng rãi. Bên cạnh chính GPT-5.5, bộ chọn vào thời điểm đó còn bao gồm một sê-ri có tên Glacier (với chú thích ghi "Trí tuệ di chuyển các lục địa"), một mô hình khoa học sự sống có tên Heisenberg, một mô hình không xác định có tên Arcanine, và một số phiên bản khác có tên mã là oai-2.1.

Nói cách khác, cùng lúc OpenAI phát hành GPT-5.5 như là "thế hệ tiếp theo", đã có ít nhất 5 đến 6 dòng sản phẩm song song đang được phát triển nội bộ, chưa dòng nào được tung ra thị trường.

Chính OpenAI cũng đã thừa nhận điều này. Trong lộ trình chính thức đến năm 2026, họ đã sử dụng một thuật ngữ đã được thảo luận từ lâu trong giới học thuật - "sự dư thừa năng lực" - để thừa nhận rằng có một khoảng cách rất lớn giữa khả năng thực sự của các mô hình lớn hiện tại và hiệu quả thực tế mà người dùng có thể đạt được.

Nghe có quen thuộc không? Đây gần như là câu nói tương tự mà Anthropic đã dùng về Mythos. Ngay cả khi vụ rò rỉ Codex lần 22 tháng 4 thực sự là một sự cố ngoài ý muốn, việc OpenAI chủ động đưa cụm từ "khả năng dư thừa" vào lộ trình phát triển của mình đã gửi đi một thông điệp rất rõ ràng — chúng tôi có rất nhiều lựa chọn, các bạn tự tìm hiểu nhé.

Bạn chỉ có thể tận dụng tối đa các cơ hội nếu bạn nắm giữ nhiều thứ hơn những gì bạn bán cho người dùng. Sự kiện kéo dài 24 giờ của GPT-5.5 một lần nữa đã biến tiền đề này thành một chương trình phát sóng trực tiếp.

Sự kiên nhẫn của Deepseek

DeepSeek đã hoàn toàn thay đổi cách tiếp cận của mình đối với việc "tối ưu hóa" – họ không còn che giấu khả năng của mình nữa, mà đang chờ đợi thời điểm thích hợp hơn để cung cấp chúng.

Với MoE 1.6T, 1M ngữ cảnh và thông số kỹ thuật kép Pro/Flash, được định giá ở mức 3,48 cho 1 triệu token—một phần nhỏ giá của GPT-5.5 và chênh lệch đáng kể so với Opus 4.7—các nhà đánh giá độc lập ở nước ngoài đã kết luận trong hai câu: hiệu năng gần bằng nhưng thấp hơn một chút so với GPT-5.4 / Gemini 3.1-Pro, và mức giá "phá vỡ rào cản kinh tế của các phòng thí nghiệm tiên tiến".

Tuy nhiên, trong khuôn khổ của chính DeepSeek, phiên bản V4 Preview lại đắt hơn đáng kể so với phiên bản V3 "rẻ đến kỳ lạ". Ai cũng biết đây không phải là phiên bản đầy đủ tính năng.

Câu chuyện đầy đủ về DeepSeek V4 không kết thúc cùng với việc phát hành, cũng không bắt đầu từ đó.

Mọi chuyện bắt đầu từ lần ra mắt R2 chưa được phát hành vào năm 2025. Ban đầu, R2 dự kiến ​​được phát hành vào tháng 5 năm 2025, nhưng cuối cùng đã bị hoãn lại đến mùa thu hoặc mùa đông. Toàn bộ cơ sở hạ tầng của Deepseek Trung Quốc đã được chuyển sang hệ sinh thái CANN của Huawei. Đối với bất kỳ phòng thí nghiệm nào, đây không phải là dự án có thể hoàn thành trong một quý — trình biên dịch, các toán tử, thư viện truyền thông, khung suy luận, định tuyến MoE — mọi thứ đều phải được viết lại.

Với phiên bản V4, DeepSeek chính thức đưa Ascend vào danh mục phần cứng huấn luyện của mình lần. V4 là phiên bản đầu tiên dành cho huấn luyện kết hợp – đánh dấu sự ra mắt của Ascend .

Tuy nhiên, chip thế hệ tiếp theo Ascend 950DT, được tối ưu hóa đặc biệt cho việc huấn luyện quy mô lớn, sẽ không được sản xuất hàng loạt cho đến quý 4 năm 2026 theo lộ trình của Huawei. Nói cách khác, quá trình huấn luyện V4 có thể được thực hiện bằng cách sử dụng thế hệ trước 950PR; để cho phép phiên bản 1.6T MoE đầy đủ chức năng như V4 Pro Max vừa huấn luyện kỹ lưỡng vừa được đẩy mạnh xử lý trên quy mô lớn, chúng ta vẫn phải chờ thế hệ tiếp theo ra mắt.

Thách thức kỹ thuật thực sự không phải là "liệu V4 có thể được huấn luyện hay không"—điều mà nó đã được huấn luyện rồi—mà là "làm thế nào để V4 hoạt động với tốc độ tối đa, ổn định và tiết kiệm chi phí trên Ascend."

Bộ xử lý Ascend 950PR sẽ được sản xuất hàng loạt vào quý 1 năm 2026, sở hữu tỷ lệ băm FP4 đạt 1,56 PFLOPS và bộ nhớ tích hợp 112GB, những thông số kỹ thuật trên lý thuyết có thể sánh ngang hoặc vượt trội so với NVIDIA H20. Tuy nhiên, việc vận hành một chip đơn lẻ và một cụm siêu nút hoạt động ổn định xử lý hàng triệu yêu cầu suy luận mỗi giây là hai việc hoàn toàn khác nhau. Phiên bản đầy đủ tính năng của V4 Pro Max được thiết kế đặc biệt cho "siêu nút" này—phiên bản cụm quy mô lớn của sê-ri Ascend 950, sẽ dần được tung ra thị trường vào nửa cuối năm 2026.

Điều này tạo nên một chiến lược hoàn toàn khác so với hai chiến lược trước đó. Cách tiếp cận từng bước của Anthropic và OpenAI là họ đã có trong tay một phiên bản mạnh mẽ hơn, nhưng họ chưa muốn chia sẻ nó với bạn; cách tiếp cận từng bước của DeepSeek là họ đã có phiên bản hoàn chỉnh và sẽ chờ đến khi giá giảm xuống một mức nữa.

Sự khác biệt này rất quan trọng.

Tính năng đột phá thực sự của DeepSeek chưa bao giờ là "hiệu năng tiên tiến", mà là "giảm giá thành token xuống mức mà các đối thủ không dám, trong khi vẫn đảm bảo hiệu năng đủ dùng". Phiên bản V4 Preview đã được điều chỉnh cho card NVIDIA và Ascend 950PR, nhưng để đạt được khả năng suy luận tối đa ở quy mô sản xuất hàng loạt, chúng ta phải chờ đến khi các siêu máy chủ (supernode) ra mắt. Khi thời điểm đó đến, hai điều sẽ xảy ra đồng thời: thứ nhất, khả năng của V4 Pro Max có thể được phát huy tối đa; thứ hai, chi phí suy luận và giá API sẽ giảm xuống một mức nữa — đối với một công ty dựa vào giá cả để thâm nhập thị trường, điều thứ hai còn tai hại hơn điều thứ nhất.

Khoảnh khắc "DeepSeek" mà mọi người thực sự mong chờ, dự kiến ​​diễn ra vào đầu năm 2025, đã không xuất hiện trong bản phát hành lần. Bản phát hành V4 Preview thực chất chỉ là một bản xem trước; điểm nhấn thực sự là khoảnh khắc "DeepSeek + Huawei Ascend" vào nửa cuối năm.

Từ góc nhìn này, nhóm của Liang Wenfeng không phải đang "che giấu" một cách gượng ép, mà là đang đưa ra một "lựa chọn" có tính thương mại – chọn ra mắt phiên bản mạnh nhất trong kịch bản mà họ có tiếng nói lớn nhất: ngày đầu tiên sau khi triển khai quy mô lớn các siêu nút trong nước. Trước đó, họ sẽ sử dụng V4 Preview để củng cố thêm luận điểm về hiệu quả chi phí.

Tìm kiếm sâu

Sứ mệnh của DeepSeek chưa bao giờ là "câu chuyện dài hạn" về việc đưa các mô hình quy mô lớn trong nước lên hàng đầu, mà là "câu chuyện mang tính hệ thống" về việc đảm bảo bốn khâu: chip, huấn luyện, suy luận và định giá hoạt động trơn tru cùng một lúc — điều sau quan trọng hơn nhiều so với điều trước.

Mới đây, Jensen Huang đã phát biểu trên podcast của Dwarkesh Patel rằng nếu DeepSeek ra mắt trên chip của Huawei, "đó sẽ là một kết quả tồi tệ cho quốc gia chúng ta."

Hiện tại, Nvidia đang nắm giữ tỷ lệ băm hàng đầu. Tuy nhiên, theo tầm nhìn của Huang Renxun về "chiếc bánh AI năm lớp" - năng lượng, chip, cơ sở hạ tầng, mô hình và ứng dụng - ngành công nghiệp AI quy mô lớn của Trung Quốc đã có các giải pháp nội địa khả thi ở mỗi lớp, và khoảng cách đang thu hẹp với tốc độ rõ rệt. Với mảnh ghép cuối cùng - chip - câu chuyện về AI quy mô lớn mã nguồn mở của DeepSeek thậm chí còn lớn hơn mô hình của Mỹ: đó là một bước quan trọng hướng tới việc đạt được sự bình đẳng về trí tuệ toàn cầu mà không phải chịu chi phí quá cao.

Điều này sẽ cho phép toàn thế giới bỏ qua tỷ lệ băm tiên tiến do một số cường quốc bá chủ kiểm soát và bước vào một xã hội thông minh hiệu quả cao.

kết thúc

Việc Anthropic "giấu kín" sản phẩm là một hành động chủ động. Họ sở hữu Mythos, nhưng chưa phát hành, viện dẫn lý do an toàn.

Khía cạnh "ẩn" của OpenAI chính là cấu trúc của nó. Họ có phiên bản Pro, nhưng thường không cung cấp cho người dùng, viện dẫn lý do là cơ sở hạ tầng và các bậc giá.

Việc "che giấu" thông tin của DeepSeek là cần thiết. Nó liên quan đến toàn bộ mô hình tường thuật về bước nhảy vọt trong trí tuệ xã hội.

Nhưng nhìn từ một góc độ khác, điều này rất giống với khu rừng tối tăm mà Lưu Từ Tích đã mô tả: trong khu rừng thông minh tối đen như mực này, không một thợ săn giỏi nào sẽ là người đầu tiên nổ súng.

Việc để lộ bản thân đồng nghĩa với việc không còn gì để che giấu, không có quân bài chủ chốt, và trở thành con mồi dễ dàng cho kẻ săn mồi khác.

Không ai biết ai sẽ nổ phát súng chí mạng đầu tiên. Nhưng có một điều chắc chắn: mọi mô hình bạn sử dụng ngày nay đều không phải là hình dạng thực sự của nó.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
86
Thêm vào Yêu thích
17
Bình luận