Trong khi tin tức về việc Lin Junyang, trưởng bộ phận kỹ thuật của Qwen thuộc Alibaba, rời công ty chiếm lĩnh các trang báo trong giới công nghệ Trung Quốc, thì sự thay đổi nhân sự tại Thung lũng Silicon lại diễn ra khá lặng lẽ.
Max Schwarzer, người đứng đầu bộ phận hậu huấn luyện tại OpenAI và là nhân vật chủ chốt đứng sau sê-ri GPT-5, đã thông báo rời khỏi công ty để gia nhập Anthropic với tư cách là nhà nghiên cứu hàng đầu.
Thời điểm rút lui này đặc biệt nhạy cảm. Trước đó, OpenAI và Anthropic đã vướng vào cuộc tranh giành quyền lực, với việc OpenAI giành được hợp đồng của Lầu Năm Góc mà Anthropic đã công khai từ chối. Tin tức này đã gây ra phản ứng dữ dội từ công chúng, và tỷ lệ gỡ cài đặt ChatGPT tăng vọt 295% trong một thời gian ngắn.
Tại thời điểm giao thoa giữa mở rộng thương mại và những tranh cãi về đạo đức, Max Schwarzer, một nhân vật chủ chốt trong việc kiểm soát hiệu quả của mô hình, đã chọn rời đi chỉ bảy tháng sau khi được thăng chức Phó Chủ tịch Nghiên cứu. Điều này tự nó đã gửi đi một tín hiệu mạnh mẽ: OpenAI đang nhanh chóng hướng tới một tương lai thương mại và có thể không còn là nơi lý tưởng cho các nhà nghiên cứu thuần túy nữa.
Việc Max Schwarzer ra đi không phải là trường hợp cá biệt. Trong tuyên bố từ chức, bà thẳng thắn thừa nhận rằng nhiều đồng nghiệp mà bà ngưỡng mộ đã làm việc tại Anthropic.
Ví dụ, John Schulman, đồng sáng lập OpenAI, người đứng đầu bộ phận hậu huấn luyện và là người tạo ra "khả năng đàm thoại" của ChatGPT; Jan Leike, người đứng đầu đội ngũ Super Alignment, người đã cố gắng xây dựng một hàng rào an toàn cho AI vượt qua khả năng của con người; và Durk Kingma, đồng sáng lập OpenAI và là một nhà khoa học thuật toán đam mê công nghệ...
Điều này cho thấy một "xu hướng di cư nhân tài" đang nổi lên, trong đó các nhà lãnh đạo công nghệ đang rời trụ sở của OpenAI tại khu Mission District của San Francisco và hội tụ về Anthropic, nơi chú trọng hơn vào "trí tuệ nhân tạo hiến pháp" và nghiên cứu an ninh.
Trọng tâm mới của Max Schwarzer tại Anthropic là học tăng cường (RL), lĩnh vực cốt lõi mà bà từng dẫn dắt khi tiên phong phát triển GPT-o1, nhấn mạnh vào khả năng suy luận logic và hướng đến việc vượt qua giới hạn của tư duy mô hình. Sự tận tâm trong việc thúc đẩy ranh giới năng lực này hoàn toàn trái ngược với chiến lược sản phẩm hiện tại của OpenAI.
Nhìn lại lộ trình phát triển gần đây của sê-ri GPT-5, một thay đổi đáng kể là trọng tâm nghiên cứu và phát triển của OpenAI đang chuyển từ việc chỉ đơn thuần mở rộng phạm vi tham số của mô hình sang giải quyết vấn đề "chặng cuối" trong thương mại hóa.
Cho dù đó là tối ưu hóa suy luận, giảm thiểu ảo ảnh hay tích hợp khả năng của tác nhân và triển khai ở cấp doanh nghiệp, sê-ri GPT-5 đều hướng đến "khả năng kiểm soát, độ tin cậy và khả năng mở rộng". Xu hướng này đặc biệt rõ ràng ở mẫu mới ra mắt, GPT-5.3 Instant, tập trung vào tối ưu hóa trải nghiệm và nâng cao trí tuệ cảm xúc. Rõ ràng, một vòng cạnh tranh mới về "trải nghiệm người dùng" đã âm thầm bắt đầu.
Nếu chúng ta mở rộng tầm nhìn và nhìn vào sê-ri gần đây của OpenAI, từ việc ký hợp đồng với chính phủ Lầu Năm Góc đến việc ra mắt nền tảng lưu trữ mã nguồn để thay thế GitHub, và mở rộng từ một nhà cung cấp mô hình thành một hệ sinh thái công cụ dành cho nhà phát triển, tất cả đều kể cùng một câu chuyện:
OpenAI đang ở thời điểm then chốt trong quá trình chuyển đổi chiến lược, hướng tới mục tiêu trở thành một gã khổng lồ nền tảng trí tuệ nhân tạo toàn cầu, tích hợp độ sâu vào các hệ thống kinh doanh và chính phủ.
Sự chuyển đổi trong chiến lược sản phẩm: Từ "cuộc chạy đua thông số" sang " hệ thống bảo vệ trải nghiệm "
Các phiên bản cải tiến từ sê-ri GPT-4 đến sê-ri GPT-5 cho thấy rõ ràng rằng Open AI đang chuyển từ "làm cho AI thông minh hơn" sang "làm cho AI đáng tin cậy hơn".
Sự thay đổi này không phải là ngẫu nhiên. Sau hai năm "chạy đua tham số", OpenAI nhận ra rằng việc đơn giản chỉ tăng trưởng kích thước mô hình đang đối mặt với vấn đề lợi ích cận biên giảm dần.
Như Ilya Sutskever, cựu nhà khoa học trưởng tại OpenAI, đã nói: "Kỷ nguyên chỉ dựa vào Định luật Tỷ lệ đã kết thúc; chúng ta đã quay trở lại giai đoạn khám phá và tìm tòi."
Trước đây, việc tăng gấp đôi kích thước mô hình sẽ cải thiện đáng kể khả năng của nó; hiện nay, việc tăng gấp mười lần kích thước mô hình có thể chỉ mang lại sự cải thiện chưa đến 10%. Việc tăng số lượng tham số một cách mù quáng đã trở nên cực kỳ kém hiệu quả, trong khi việc tối ưu hóa các giai đoạn huấn luyện và suy luận sau này có thể mang lại lợi tức đầu tư cao hơn nhiều.
Tuy nhiên, có một nghịch lý lớn ở đây: kể từ khi "huấn luyện sau" trở thành một lĩnh vực chiến lược quan trọng mới của OpenAI, tại sao các nhà lãnh đạo hàng đầu trong lĩnh vực huấn luyện sau, như Max Schwarzer, lại chọn rời đi?
Điều này cho thấy rõ sự bất đồng cơ bản trong nội bộ OpenAI về định nghĩa "huấn luyện sau": liệu đó là "vì sự thật" hay "vì lợi ích của sản phẩm"? Các nhà khoa học xem huấn luyện sau là cánh cổng an toàn cuối cùng hướng tới Trí tuệ Nhân tạo Tổng quát (AGI). Tuy nhiên, trong mắt ban quản lý OpenAI, những người đang đẩy nhanh quá trình thương mại hóa, huấn luyện sau đang được định nghĩa lại là "đào tạo dịch vụ khách hàng nâng cao".
Trước đây, giọng điệu quá giáo điều và các biện pháp phòng vệ an ninh dễ bị kích hoạt của GPT-5.2 đã khiến lượng lớn người dùng tức giận, dẫn đến một làn sóng hủy đăng ký đáng kể trên mạng xã hội. Điều này đã giúp OpenAI nhận thức rõ rằng trải nghiệm người dùng kém đang làm giảm đi những lợi thế của trí tuệ mô hình.
Do đó, trong phiên bản GPT-5.3 Instant mới ra mắt, nguồn lực tỷ lệ băm khổng lồ đã được chuyển từ "lý luận logic" sang "sửa lỗi kỹ thuật" thực tế hơn: Làm thế nào để giọng điệu mượt mà hơn? Làm thế nào để tăng cường trí tuệ cảm xúc? Làm thế nào để cuộc trò chuyện trôi chảy hơn? Nó không còn cố gắng trở thành "vị thần toàn tri và toàn năng", mà hướng đến việc trở thành "người thậm chí hiểu được cả ý nghĩa ngầm của bạn".
Như vậy, mục tiêu của quá trình hậu huấn luyện của OpenAI đã được thu hẹp từ "ngăn chặn AI phá hủy thế giới" thành "ngăn chặn AI vướng vào các vụ kiện tụng".
Việc OpenAI chuyển hướng sang thương mại hóa tương ứng với việc viết lại toàn bộ các tiêu chí đánh giá của ngành.
Đầu năm nay, Andrew Ng đã đề xuất "bài kiểm tra Turing-AGI", không còn tập trung vào việc liệu AI "có thể giải quyết vấn đề" hay không, mà là liệu nó có thực sự hoàn thành một nhiệm vụ trong điều kiện không thể kiểm soát được hay không. "Báo cáo dự đoán AI năm 2026" của Đại học Stanford và báo cáo ROI của Google Cloud cũng chỉ ra xu hướng tương tự: đừng nói về giới hạn trên của trí thông minh mô hình, hãy nói về lợi ích thực tiễn trong doanh nghiệp.
Đối với khách hàng doanh nghiệp, phép tính rất rõ ràng: một thiên tài đạt điểm tuyệt đối nhưng đôi khi lan man có giá trị thấp hơn nhiều so với một trợ lý đạt 90 điểm nhưng ổn định tâm lý và nhất quán về mặt logic. Giảm thiểu rủi ro tuân thủ là rào cản chính đối với việc triển khai ở cấp độ doanh nghiệp.
Giống như Apple thu hút người dùng mà không cần tập trung vào thông số kỹ thuật phần cứng, OpenAI cũng đang cố gắng chứng minh thông qua việc tinh chỉnh kỹ thuật tối đa rằng trong thế giới kinh doanh, "trải nghiệm là yếu tố quyết định" hiệu quả hơn nhiều so với "tăng cường thông số" trong việc giữ chân khách hàng, đây cũng là logic cốt lõi trong sự chuyển hướng thương mại hóa của họ.
Sự vận động thương mại và chính trị được đẩy nhanh: Sự tiến hóa từ các viện nghiên cứu thành "các nền tảng cấp cơ sở hạ tầng"
Sự chuyển đổi công nghệ của OpenAI chỉ là phần nổi của tảng băng trôi; ẩn sâu bên dưới bề mặt là chiến lược kép của Sam Altman trong chính trị và kinh doanh.
Công ty này, ra đời từ lý tưởng "mã nguồn mở, phúc lợi công cộng và thúc đẩy trí tuệ nhân tạo tổng quát (AGI) vì lợi ích nhân loại", đang điên cuồng ngốn tỷ lệ băm, dữ liệu và vốn. Cốt lõi của mọi hành động của nó là một từ khóa: "kiểm soát".
Theo nguồn tin The Information, OpenAI đang bí mật phát triển một nền tảng lưu trữ mã nguồn với mục đích trực tiếp thay thế GitHub của Microsoft và trở thành trung tâm lưu trữ và tạo mã nguồn thế hệ tiếp theo của thế giới.
Mặc dù các kỹ sư của OpenAI tuyên bố nguyên nhân là do không hài lòng với tình trạng gián đoạn thường xuyên gần đây của GitHub, động thái này dường như giống một cuộc đấu tranh cho "quyền định nghĩa cơ bản" của ngành công nghiệp phần mềm hơn.
Hiện tại, Copilot của OpenAI chỉ là một "tiện ích bổ sung" cho IDE, luôn phụ thuộc vào hệ sinh thái phát triển của Microsoft. Điều mà họ thực sự muốn là biến AI thành một "hoàn cảnh gốc" cho lập trình.
Các nhà phát triển hoàn thành toàn bộ quy trình lưu trữ mã, tạo mã, gỡ lỗi và triển khai trên nền tảng của mình. Bằng cách kiểm soát vòng lặp khép kín này, OpenAI thu thập dữ liệu kỹ thuật mới nhất và cốt lõi nhất, đồng thời xây dựng một hệ thống tự tuần hoàn gồm "dữ liệu - mô hình - ứng dụng".
OpenAI cũng đã hoàn tất quá trình mở rộng từ một nhà cung cấp mô hình AI thành một hệ sinh thái công cụ dành cho nhà phát triển.
Một bước đi gây tranh cãi hơn nữa là "lời tuyên thệ trung thành" về mặt chính trị của OpenAI với Lầu Năm Góc.
Đầu năm 2024, OpenAI đã cập nhật chính sách sử dụng của mình, loại bỏ điều khoản trước đây cấm rõ ràng "sử dụng cho mục đích quân sự và chiến tranh". Sự thay đổi này không được công bố công khai, nhưng đã được một số phương tiện truyền thông chú ý.
Tiếp đó, OpenAI bổ nhiệm cựu Giám đốc NSA Paul Nakasone vào hội đồng quản trị và thành lập "Ủy ban An ninh và Đảm bảo".
Những hành động này được hiểu rộng rãi như một tín hiệu cho thấy OpenAI đang tăng cường hợp tác với hệ thống an ninh quốc gia của Hoa Kỳ.
Trong vụ việc liên quan đến lệnh của Lầu Năm Góc gần đây, Anthropic đã chọn duy trì các giới hạn của "trí tuệ nhân tạo cấp độ hiến pháp", từ chối cho phép sử dụng các mô hình AI của mình cho hoạt động giám sát trong nước quy mô lớn hoặc vũ khí tự động hoàn toàn, cuối cùng bị liệt vào danh sách " rủi ro Chuỗi cung ứng an ninh quốc gia". Mặt khác, OpenAI đã nhanh chóng đạt được thỏa thuận với Lầu Năm Góc, chấp nhận khuôn khổ cốt lõi của Lầu Năm Góc về "sử dụng miễn là luật hiện hành được áp dụng". Mặc dù đã bổ sung ba giới hạn an ninh và đảm bảo các quyền bảo vệ kỹ thuật về "triển khai trên đám mây và kiểm soát tự động hệ thống an ninh", nhưng cách diễn đạt của thỏa thuận vẫn để ngỏ khả năng diễn giải về hoạt động giám sát tiềm tàng.
Việc OpenAI thâu tóm thị trường này không chỉ là một vụ thâu tóm thương mại mà còn là một động thái chính trị. Nó cho thấy OpenAI đã sẵn sàng gánh vác những phức tạp khi đóng vai trò là "cơ sở hạ tầng trí tuệ nhân tạo cấp quốc gia".
Xét cho cùng, với ngân sách quốc phòng 200 triệu đô la, thu nhập từ phần mềm dịch vụ (SaaS) cấp doanh nghiệp là không đáng kể. Việc trở thành nhà cung cấp cho quân đội Hoa Kỳ mang lại cho họ quyền miễn trừ chính trị "quá lớn để sụp đổ".
Trong vòng gọi vốn mới nhất, OpenAI đã huy động được số tiền khổng lồ 110 tỷ đô la, trở thành vòng gọi vốn lớn nhất trong lịch sử trí tuệ nhân tạo. Giá trị vốn hóa thị trường của OpenAI sau khi nhận đầu tư đang tiến gần đến con số 840 tỷ đô la, sát ngưỡng cửa câu lạc bộ nghìn tỷ đô la.
OpenAI dự định sử dụng số tiền này để mở rộng cơ sở hạ tầng trí tuệ nhân tạo của mình, xây dựng một rào cản tỷ lệ băm mà các đối thủ cạnh tranh không thể vượt qua. Đây là ứng dụng tối ưu của "hiệu ứng mạng lưới" trong nền kinh tế nền tảng: bằng cách độc chiếm các nguồn lực cốt lõi như tỷ lệ băm và dữ liệu, một chu kỳ tự củng cố "tập hợp người dùng - tăng cường tài nguyên - nhiều người dùng đổ xô vào" được hình thành, cuối cùng đạt được vị thế độc quyền thị trường. Đây cũng là một trong những logic cốt lõi đằng sau việc OpenAI theo đuổi "quyền kiểm soát".
Nhưng đằng sau sự mở rộng nhanh chóng đầy hào nhoáng này là một thanh gươm Damocles chết người: tốc độ tiêu hao tiền mặt cực nhanh và mô hình kinh doanh vẫn chưa hoàn thiện chính là mối nguy hiểm tiềm tàng lớn nhất của OpenAI.
OpenAI hiện đang vướng vào cuộc đấu tranh ba chiều giữa các mối lo ngại về an ninh của chính phủ, rủi ro đạo đức và lợi ích thương mại. Họ đang thực hiện một canh bạc chưa từng có trong lịch sử thương mại của nhân loại, buộc phải thiết lập một vòng khép kín thương mại trước khi Chuỗi.
Sự dịch chuyển nhân tài và xung đột văn hóa: sự khác biệt không thể tránh khỏi trong bối cảnh chuyển dịch trọng tâm chiến lược.
Khi một công ty trải qua biến đổi gen, điều đó chắc chắn sẽ kích hoạt quá trình trao đổi chất của tế bào. Sự thay đổi lớn ở cấp cao tại OpenAI là hệ quả tất yếu của sự chuyển dịch chiến lược và sự khác biệt hóa sau đó.
Khi ChatGPT trở thành một siêu ứng dụng với hàng trăm triệu người dùng, trọng lực trong nội bộ OpenAI đã trải qua một sự đảo ngược cơ bản: kỹ thuật và thương mại hóa bắt đầu chi phối việc ra quyết định, trong khi nghiên cứu và khám phá thuần túy bị đẩy lùi.
Một số lãnh đạo cấp cao và trưởng nhóm nghiên cứu của OpenAI đã rời công ty trong những năm gần đây, bao gồm cả Giám đốc công nghệ, người đứng đầu bộ phận hậu huấn luyện và người đứng đầu bộ phận nghiên cứu. Đối với những người theo chủ nghĩa thuần túy công nghệ như John Schulman hay Max Schwarzer, rời đi trở thành lựa chọn duy nhất khi các nguồn lực tỷ lệ băm bắt đầu ưu tiên việc triển khai sản phẩm hơn là nghiên cứu tiên tiến, và khi quyền hạn của đội ngũ bảo mật bị thu hẹp bởi nút phân phối thương mại.
Anthropic trở thành nơi trú ẩn cho những "kẻ lưu vong" này. Nó giống OpenAI trước năm 2019 hơn: tốc độ phát hành chậm hơn, đánh giá bảo mật nghiêm ngặt hơn và sự ám ảnh lớn hơn với các định luật mở rộng quy mô.
Trong báo cáo xu hướng nhân tài năm 2025 mới nhất, công ty đầu tư mạo hiểm SignalFire tiết lộ rằng Anthropic có tỷ lệ giữ chân nhân tài AI hàng đầu lên đến 80%, và các kỹ sư chuyển từ OpenAI sang Anthropic có khả năng quay lại cao gấp tám lần so với những người chuyển từ Anthropic sang OpenAI.
CEO của Anthropic, Dario Amodei, tự hào tuyên bố rằng công ty của ông có khả năng chống lại việc bị các đối thủ lôi kéo nhân viên. Họ phớt lờ những chiến thuật như việc Meta đưa ra mức lương gấp mười lần để thu hút nhân viên, bởi vì hầu hết nhân viên đều tự nguyện ở lại vì cảm giác "sứ mệnh". Theo các nguồn tin, chỉ có hai nhân viên từ chức để gia nhập Meta bất chấp ưu đãi này, dẫn đến tỷ lệ giữ chân nhân viên cao hơn nhiều so với OpenAI.
Sự dịch chuyển nhân tài này cũng cho thấy OpenAI đang loại bỏ những "nhà nghiên cứu thuần túy" và giữ lại những "quản lý sản phẩm" và "kỹ sư". Họ đã tập hợp được những tài năng phát triển sản phẩm xuất sắc nhất, những người giỏi trong việc kiếm tiền từ công nghệ và tạo ra những sản phẩm mang trải nghiệm đột phá, thay đổi thế giới như ChatGPT. OpenAI đang trở thành Microsoft của kỷ nguyên AI.
Anthropic đang thu hút những "nhà khoa học" và "chuyên gia an ninh" thuần túy nhất. Nơi đây quy tụ những bộ óc tận tâm khám phá ranh giới lý thuyết và nền tảng an ninh của Trí tuệ Nhân tạo Tổng quát (AGI), dường như đang trở thành Bell Labs của kỷ nguyên AI.
Đây không chỉ là cuộc cạnh tranh giữa hai công ty, mà còn là cuộc đánh cược giữa hai con đường công nghệ khác nhau. OpenAI chọn "phạm vi và sự thâm nhập", hướng đến việc trở thành một cơ sở hạ tầng không thể thiếu và giành thị thị phần. Anthropic chọn "độ sâu và giới hạn", đặt cược vào tương lai và một nền tảng vững chắc.
Gần đây, OpenAI đã thực hiện một loạt các động thái tinh tế. Một mặt, họ đang tinh chỉnh ChatGPT thành một "điểm truy cập mặc định cấp doanh nghiệp" có khả năng mở rộng, ít gây hiểu nhầm, ít từ chối trả lời và ít tương tác mang tính xúc phạm hơn. Mặt khác, họ đang mở rộng phạm vi hoạt động sang lĩnh vực lưu trữ mã nguồn, các hợp đồng với chính phủ và quản trị an ninh, tự tích hợp vào một hệ thống sản xuất và bộ máy nhà nước mạnh mẽ hơn. Đây là sự chuyển đổi từ một "công ty kiểu mẫu" thành một "công ty cơ sở hạ tầng".
Cái giá phải trả cho con đường này là sự phân bổ lại niềm tin và văn hóa: các nhà nghiên cứu sẽ rời bỏ ứng dụng, người dùng sẽ thể hiện thái độ của mình bằng cách gỡ cài đặt ứng dụng, và các đối thủ cạnh tranh sẽ sử dụng những luận điệu "đạo đức hơn" để chiếm lĩnh thị trường.
Liên kết tham khảo:
https://x.com/max_a_schwarzer
https://www.theinformation.com/articles/openai-developing-alternative-microsofts-github
https://www.reuters.com/business/openai-is-developing-alternative-microsofts-github-information-reports-2026-03-03/
https://openai.com/zh-Hant/index/gpt-5-3-instant/
Bài viết này được đăng tải từ tài khoản chính thức WeChat "AI Frontline" (ID: ai-front) , tác giả: Yunyi, và được xuất bản với sự cho phép của 36Kr.

