
Một công ty trí tuệ nhân tạo chưa có lợi nhuận đã liên tiếp cho ra mắt ba mô hình, và chỉ trong vòng chưa đầy ba tháng, chín trong số mười công ty internet hàng đầu Trung Quốc đã tranh giành nhau để tích hợp với nó.
Ngày 8 tháng 4, Zhipu AI đã phát hành mô hình mã nguồn mở quy mô lớn GLM-5.1 tại Quảng Châu. Đây là mô hình thứ ba của họ, sau GLM-5 vào ngày 12 tháng 2 và GLM-5-Turbo vào ngày 16 tháng 3. Sau khi ba mô hình này được phát hành, một hiện tượng thú vị đã liên tục xuất hiện: lượng lớn công ty trong nước đã thông báo về việc "tích hợp" sản phẩm của họ trên mạng xã hội và trang web chính thức. Các công ty này bao gồm các công ty internet và nhà cung cấp dịch vụ đám mây, các nhà cung cấp phần mềm và nhà sản xuất chip, trải rộng từ các doanh nghiệp lớn, vừa và nhỏ.
Theo thông tin công khai, sê-ri GLM-5 đã được ít nhất 18 công ty thuộc bốn cấp độ khác nhau chính thức áp dụng hoặc tuyên bố sẽ được áp dụng.
Trong số các công ty internet hàng đầu, ByteDance (trợ lý lập trình TRAE), Alibaba (Qoder), Tencent (bộ ứng dụng CodeBuddy/WorkBuddy), Baidu (nền tảng AI Cloud Qianfan), Meituan (CatPaw) và Kuaishou (Wanqing) đều đã tích hợp. Trong báo cáo tài chính đầu tiên sau khi IPO (ngày 31 tháng 3), Zhipu đã nêu rõ rằng "trong vòng 24 giờ sau khi GLM-5 được phát hành, họ đã nhận được sự tích hợp chính thức từ các sản phẩm nền tảng hàng đầu như TRAE/Coze của ByteDance, Qoder của Alibaba, CodeBuddy của Tencent, CatPaw của Meituan, Wanqing của Kuaishou, Baidu AI Cloud và WPS Office", và cho biết thêm rằng "chín trong số 10 công ty internet hàng đầu Trung Quốc đã tích hợp độ sâu GLM". Vào ngày phát hành GLM-5.1, Tencent đã nâng cấp toàn bộ dòng sản phẩm CodeBuddy và WorkBuddy lên GLM-5.1, Baidu tuyên bố hoàn thành "thích ứng toàn diện ngay từ ngày đầu tiên", và TRAE của ByteDance cũng đồng thời ra mắt phiên bản mới ngay từ ngày đầu tiên.
Về phía các nhà cung cấp dịch vụ đám mây, Huawei Cloud đã ra mắt CodeArts ngay trong ngày phát hành, dẫn đến sự gia tăng đột biến về số lượng người dùng và lượng truy cập; Kingsoft Cloud đã ra mắt nền tảng Starflow vào ngày 10 tháng 4; và UCloud đã hoàn tất quá trình tích hợp vào giai đoạn GLM-5.
Trong số các nhà cung cấp phần mềm và phần cứng, Kingsoft Office (WPS Lingxi), Coze của ByteDance, nền tảng định tuyến mẫu OpenRouter và iSoftStone (đơn vị đầu tiên tích hợp GLM-5-Turbo vào thiết bị đầu cuối "Lobster Box" của Mechrevo) đã áp dụng các phương pháp như tích hợp độ sâu , truy cập API và triển khai phần cứng để đạt được sự tích hợp. Điều đáng chú ý là thời gian tích hợp thực tế của WPS Lingxi (ngày 12 tháng 2) sớm hơn thời điểm công bố chính thức(ngày 14 tháng 2), cho thấy một số công ty đã hoàn thành việc tích hợp kỹ thuật trước khi công bố chính thức.

Đáng chú ý nhất là sự "thích ứng ngay từ ngày đầu tiên" của các chip tỷ lệ băm nội địa – Biren Technology (sê-ri Biren 166), Hygon Information (DCU), Muxi Technology (sê-ri Xiyun C) và Qingwei Intelligent (TX81 RPU) đều tuyên bố hoàn thành việc thích ứng toàn diện vào ngày phát hành GLM-5.1. Cùng với cơ sở đào tạo liên kết đầy đủ Huawei Ascend 910B, chúng tạo thành một chuỗi hoàn chỉnh về khả năng thích ứng tỷ lệ băm trong nước.
Cảnh tượng này không phải là hiếm gặp—mỗi khi một mẫu điện thoại nội địa hàng đầu được ra mắt, các thông báo chính thức về việc tích hợp nó vào hệ thống giải trí của hãng luôn được đưa ra. Nhưng lần này, tần suất và tốc độ của những thông báo này cao hơn đáng kể so với trước đây, làm dấy lên câu hỏi: Liệu đó là vì mẫu điện thoại này thực sự xuất sắc, hay chỉ là một chiêu trò tiếp thị tập thể?
Câu trả lời có thể là cả hai, nhưng điều đó phản ánh một thực tế sâu sắc hơn của ngành. Làn sóng áp dụng các mô hình sê-ri GLM-5 chính là điểm khởi đầu để hiểu "hướng đi của các mô hình quy mô lớn tại Trung Quốc".
Tại sao rất nhiều công ty lại chọn cách công khai quyền truy cập của họ?
Có ba lời giải thích hợp lý cho hiện tượng này.
Thứ nhất, giấy phép mã nguồn mở MIT giúp giảm đáng kể chi phí và rủi ro truy cập. Từ GLM-4.5 đến GLM-5 và sau đó là GLM-5.1, tất cả các mô hình chủ lực của Zhipu đều áp dụng giấy phép mã nguồn mở MIT—có thể sử dụng thương mại, triển khai sở hữu tư nhân và không có hạn chế sử dụng. Đối với lượng lớn doanh nghiệp vừa và nhỏ cũng như các cơ quan chính phủ, đây là một lợi thế không thể thay thế so với các API mã nguồn đóng thương mại: dữ liệu không cần phải rời khỏi mạng nội bộ, rủi ro tuân thủ được kiểm soát và việc phê duyệt mua sắm dễ dàng hơn. Chi phí truy cập được công bố chính thức cực kỳ thấp, và lý do rất thuyết phục.
Thứ hai, bước đột phá thực sự về khả năng lập trình đã mang lại giá trị hỗ trợ cho các sản phẩm được một số doanh nghiệp áp dụng. GLM-5.1 đạt 58,4 điểm trong bài kiểm tra lập trình SWE-Bench Pro, vượt qua Claude Opus 4.6 (57,3 điểm) và GPT-5.4 (57,7 điểm), và lần đầu tiên, nó đã vượt qua các sản phẩm mã nguồn đóng hàng đầu trên chuẩn mực này, trở thành một mô hình mã nguồn mở trong nước. Đối với các công ty phát triển phần mềm, sự cải thiện về khả năng lập trình là hữu hình. Việc áp dụng không chỉ là một chiêu trò; ít nhất trong lĩnh vực lập trình, nó có những trường hợp sử dụng thực tế.
Thứ ba, bản thân hành động "tiếp cận các mô hình chủ lực sản xuất trong nước" đã có giá trị tiếp thị. Trong bối cảnh mua sắm của chính phủ và doanh nghiệp, các buổi giới thiệu dự án và sự xuất hiện trên truyền thông, việc chính thức công bố quyền truy cập vào các mô hình hàng đầu là một động thái dễ thực hiện nhưng mang tính báo hiệu cao. Điều này ít liên quan đến khả năng thực tế của mô hình—đó là một hoạt động quảng bá độc đáo trong hệ sinh thái AI của Trung Quốc.
Ba lập luận này tương ứng với thực tế ở cấp độ công nghệ, thương mại và hệ sinh thái. Để thực sự hiểu chúng, chúng ta cần xem xét chúng từ ba khía cạnh: công nghệ GLM-5.1 đã tiến bộ đến đâu, cuộc tranh luận giữa các phương pháp mã nguồn mở và mã nguồn đóng đã đi đến đâu, và quá trình thương mại hóa của Zhipu đã tiến triển như thế nào?
Những đột phá là có thật, nhưng cái giá phải trả để chuyên sâu vào một lĩnh vực là rất lớn.
Chúng ta hãy bắt đầu với tiến độ thực tế.
GLM-5.1 tiếp tục kiến trúc MoE của GLM-5: tổng cộng 744 tỷ tham số, 256 mô hình lai chuyên gia và khoảng 44 tỷ tham số kích hoạt, được huấn luyện trên chip Huawei Ascend 910B trên toàn bộ chuỗi cung ứng. Nói một cách chính xác, đây không phải là một sự cải tiến kiến trúc, mà là một sự tối ưu hóa có mục tiêu ở giai đoạn sau huấn luyện—tăng trọng số của học tăng cường trong lập trình và các kịch bản tác nhân. Tốc độ chuyển đổi từ GLM-5 sang GLM-5.1, chưa đến tám tuần, là rất đáng khen ngợi.
Các bước đột phá quan trọng tập trung theo hai hướng.
Trước hết, có một bước nhảy vọt đáng kể trong điểm số đánh giá hiệu năng lập trình. SWE-Bench Pro đạt 58,4 điểm, vượt qua Claude Opus 4.6 (57,3 điểm) và GPT-5.4 (57,7 điểm), đánh dấu điểm số cao nhất từ trước đến nay mà một mô hình mã nguồn mở do trong nước phát triển đạt được trên bài kiểm tra này. Trong điểm trung bình kết hợp của các bài đánh giá mã nguồn Terminal-Bench và NL2Repo, GLM-5.1 xếp thứ ba toàn cầu, đứng đầu trong số các mô hình do trong nước phát triển và đứng đầu trong số các mô hình mã nguồn mở.
Thứ hai, đây là bước xác minh định lượng đầu tiên về khả năng thực hiện "nhiệm vụ kéo dài". Zhipu định nghĩa khả năng này là khả năng của một mô hình hoạt động liên tục trong nhiều giờ hoặc thậm chí lâu hơn sau khi nhận được một nhiệm vụ. Tài liệu chính thức đưa ra một số ví dụ: mô hình đã hoàn thành 655 lần lặp và hơn lần lệnh gọi công cụ trong điều kiện không giám sát, tăng QPS của cơ sở dữ liệu vector từ 3547 lên 21500; nó đã tăng tốc các nhân tính toán GPU lên 35,7 lần trong vòng 14 giờ; và nó tự động xây dựng một môi trường máy tính để bàn Linux hoàn chỉnh bao gồm trình quản lý cửa sổ, trình giả lập thiết bị đầu cuối và trình duyệt tệp trong vòng 8 giờ. Mô hình hành vi này gần giống với một kỹ sư trẻ hơn là một công cụ tìm kiếm cấp cao.
Tuy nhiên, có hai khoản giảm giá cần được lưu ý ở đây.
Nhược điểm 1: Độ tin cậy của chính hệ thống đánh giá là đáng ngờ. Vào tháng 3 năm nay, viện nghiên cứu an ninh AI METR đã công bố một nghiên cứu chỉ ra rằng khoảng một nửa số giải pháp mã AI được tự động đánh giá là "đạt" trong sê-ri kiểm tra SWE-bench sẽ bị những người bảo trì dự án thực tế từ chối, cho thấy rằng việc đánh giá tự động có thể đánh giá quá cao khả năng lập trình AI lên đến 7 lần. Gần như đồng thời, OpenAI tuyên bố sẽ từ bỏ SWE-bench Verified làm tiêu chuẩn đánh giá của mình, viện dẫn sự khác biệt đáng kể giữa đánh giá tự động và hiệu suất phát triển thực tế. Sự khác biệt chưa đến một điểm giữa GLM-5.1 và Claude Opus 4.6 nằm trong phạm vi sai số được METR tiết lộ, và nhãn hiệu "mô hình mã nguồn mở mạnh nhất thế giới" cần được ứng xử một cách thận trọng.
Nhược điểm thứ hai: Phân bổ năng lực cực kỳ không đồng đều. Bảng xếp hạng phân đoạn của Text Arena cho thấy rõ cái giá phải trả: lập trình tăng 28 bậc so với phiên bản tiền nhiệm, nhưng chăm sóc sức khỏe giảm 24 bậc, luật giảm 6 bậc và toán học giảm 2 bậc. Trong NL2Repo (xây dựng kho mã từ đầu), nó tụt hậu so với Claude Opus 4.6 7 điểm (42,7 so với 49,8). Nhà phát triển "Sunny Day" của Zhihu đã tiến hành các bài kiểm tra chéo bằng cách sử dụng các kịch bản như đọc hiểu và tạo mã SVG, kết luận rằng GLM-5.1 thậm chí còn thất bại trong việc đọc hiểu cơ bản; một nhà phát triển khác, người đã triển khai nó cục bộ thông qua Ollam, nhận xét rằng "nhìn chung, nó kém hơn Qwen3.6-Plus." Những bài kiểm tra riêng lẻ này không đại diện cho toàn bộ bức tranh, nhưng tất cả đều chỉ ra một thực tế: GLM-5.1 là một "chuyên gia" được đào tạo một cách có chủ đích trong các lĩnh vực liên quan đến lập trình và tác nhân, đồng thời hy sinh một số lĩnh vực khác.
Việc có thành kiến với một chủ đề cụ thể không phải là một thuật ngữ mang tính miệt thị; điều quan trọng là chủ đề mà bạn có thành kiến có đáng để quan tâm hay không.
Lập trình và thực thi tự động thực sự là những lĩnh vực cạnh tranh nhất trong ngành công nghiệp AI hiện nay. Tuy nhiên, điều quan trọng cần nhận ra là cùng ngày GLM-5.1 được phát hành, Anthropic đã cho ra mắt Mythos Preview—đạt điểm số 77.8 trên SWE-Bench Pro, cao hơn gần 20 điểm so với GLM-5.1. Mặc dù Mythos chưa được phát hành rộng rãi, nhưng nó đã thiết lập giới hạn hiện tại về khả năng của ngành và chứng minh rằng các đối thủ cạnh tranh có nhiều nguồn lực hơn hẳn so với các sản phẩm đã được phát hành.
Mã nguồn mở mang lại sự tin tưởng, mã nguồn đóng đảm bảo an ninh.
Vào ngày GLM-5.1 được phát hành, một sự trùng hợp đáng kinh ngạc đã xảy ra.
Ở bên kia Thái Bình Dương , Anthropic chính thức công bố mẫu máy tính thế hệ tiếp theo, Claude Mythos Preview—nhưng không phải cho công chúng. Thay vào đó, nó được cung cấp cho 12 đối tác, bao gồm Apple , Microsoft , Google và Nvidia , cùng hơn 40 tổ chức cơ sở hạ tầng cho một sáng kiến an ninh mạng có tên gọi "Project Glasswing".
Cùng ngày hôm đó, hai công ty đã chơi theo hai hướng hoàn toàn trái ngược: một công ty tải tất cả trọng lượng mô hình lên Hugging Face để bất cứ ai cũng có thể tải xuống, trong khi công ty kia cố tình khóa mô hình mạnh nhất của mình.
Sự trùng hợp này là một ví dụ thu nhỏ về sự khác biệt cơ bản nhất trong ngành công nghiệp trí tuệ nhân tạo hiện nay.
Logic mã nguồn mở của Zhipu đã hình thành nên một mô hình kinh doanh vòng xoay rõ ràng: xây dựng lòng tin của nhà phát triển thông qua giấy phép MIT → chuyển đổi lòng tin thành yếu tố ưu tiên trong quá trình mua sắm của doanh nghiệp → kiếm tiền thông qua các cuộc gọi API và phí thực thi tác nhân. Con đường này có lợi thế về cấu trúc trên thị trường chính phủ và doanh nghiệp Trung Quốc. Các ngành có yêu cầu tuân thủ dữ liệu cao (tài chính, chính phủ, y tế) có nhu cầu khắt khe về "dữ liệu không được rời khỏi mạng nội bộ", điều mà các API mã nguồn đóng không thể đáp ứng một cách tự nhiên.
Tuy nhiên, logic mã nguồn đóng của Anthropic thể hiện một con đường hoàn toàn khác để chứng minh giá trị: họ tập trung thương hiệu vào bảo mật, tận dụng khả năng của mình để thúc đẩy thương mại hóa và dựa vào danh tiếng đã được chứng minh trong các dịch vụ doanh nghiệp để biện minh cho mức giá của mình. Năm 2025, doanh thu định kỳ hàng năm (ARR) của Anthropic đã vượt quá 30 tỷ đô la, lần đầu tiên vượt qua con số 25 tỷ đô la của OpenAI – thị trường đang sử dụng tiền thật để chứng minh tính hợp lý đằng sau logic này.
Con đường nào là con đường đúng đắn? Câu hỏi đó có thể tự nó đã không chính xác. Một phát biểu chính xác hơn sẽ là: cả hai con đường hiện đều đã tìm thấy thị trường mục tiêu và điểm tựa nhu cầu riêng của mình.
Tuy nhiên, cả hai con đường đều tiềm ẩn những rủi ro riêng.
Nguy hiểm tiềm ẩn của phương pháp mã nguồn mở của Zhipu nằm ở chỗ, mặc dù mã nguồn mở có thể tạo dựng được danh tiếng, nhưng chưa chắc đã mang lại sức mạnh định giá trên thị trường. Giấy phép MIT có nghĩa là bất kỳ ai cũng có thể sử dụng trọng số mô hình miễn phí, và lợi nhuận thương mại của Zhipu chỉ có thể đến từ API lớp dịch vụ và Agent—trong một thị trường mà các đối thủ cạnh tranh lớn đã đẩy giá token xuống chỉ còn một phần mười so với các đối thủ quốc tế, thì khả năng tăng giá đương nhiên là rất hạn chế. Ngoài ra, độ sâu quá trình huấn luyện đầu cuối của GLM-5.1 với Huawei Ascend 910B tiềm ẩn nguy cơ tập trung hóa chuỗi cung ứng. Mặc dù các nhà cung cấp như Biren Technology và Hygon DCU đã hoàn thành việc thích ứng ngay từ ngày đầu tiên, nhưng khoảng cách giữa "hoàn thành thích ứng" và "khả năng sử dụng" vẫn cần được kiểm chứng bằng các ứng dụng kinh doanh thực tế.
Rủi ro tiềm tàng của phương pháp mã nguồn đóng của Anthropic nằm ở sự căng thẳng đang nổi lên giữa các ràng buộc bảo mật và khả năng thực tiễn. Gần đây, Claude Code đã vướng vào tranh cãi về "sự suy giảm 67% độ sâu tư duy" - Giám đốc AI của AMD, Stella Laurenzo, đã công khai cáo buộc nó về sự suy giảm đột ngột độ sâu tư duy dựa trên nhật ký 6852 phiên, cho thấy sự kìm hãm đáng kể khả năng của mô hình bởi các biện pháp bảo mật. Cái giá phải trả của phương pháp mã nguồn đóng là mỗi đồng bạn bỏ ra cho bảo mật sẽ ảnh hưởng đến người dùng.
Việc giá tăng là một tín hiệu, nhưng điểm uốn lợi nhuận vẫn còn xa.
Ngày 31 tháng 3, Zhipu công bố báo cáo thường niên đầu tiên kể từ khi niêm yết, và các số liệu lại rất mâu thuẫn.
Về mặt tích cực: Thu nhập đạt 724 triệu nhân dân tệ vào năm 2025, tăng 132% so với năm trước, đứng đầu trong số các nhà cung cấp mô hình quy mô lớn độc lập tại Trung Quốc. Thu nhập API tăng vọt 292,6%, thu nhập từ đại lý tăng 248,8%, và thu nhập định kỳ hàng năm của nền tảng MaaS đạt 1,7 tỷ nhân dân tệ, tăng gấp 60 lần so với năm trước. Hướng chuyển đổi của nền tảng đã rõ ràng.
Ở khía cạnh ít nghiêm trọng hơn: lỗ ròng tăng lên 4,718 tỷ nhân dân tệ, tỷ suất lợi nhuận gộp giảm từ 56,3% xuống 41,0%, chi phí nghiên cứu và phát triển là 3,18 tỷ nhân dân tệ, gấp 4,4 lần thu nhập, và lỗ lũy kế trong bốn năm lên tới khoảng 8,5 tỷ nhân dân tệ. Với giá trị vốn hóa thị trường khoảng 410 tỷ đô la Hồng Kông, tỷ lệ giá trên doanh thu gần 500 - thị trường gần như đang định giá hoàn toàn dựa trên tương lai chứ không phải hiện tại. Để so sánh, tỷ lệ giá trên doanh thu hiện tại của Tencent là khoảng 5.
Một ngày sau khi báo cáo thường niên được công bố, CEO Zhang Peng đã công khai nêu Anthropic là một chuẩn mực trong buổi họp báo cáo thu nhập, khẳng định rằng "khi mô hình đủ mạnh, chính API là mô hình kinh doanh tốt nhất". Giá cổ phiếu đã tăng vọt 31,94% trong ngày hôm đó. Thị trường đã chấp nhận quan điểm mới này.
Tuy nhiên, nhãn hiệu "Trung Quốc theo chủ nghĩa nhân văn" làm nổi bật một khoảng cách kỹ thuật số không thể tránh khỏi cần được giải quyết.
Doanh thu định kỳ hàng năm (ARR) của Anthropic xấp xỉ gấp 285 lần tổng thu nhập hàng năm của Zhipu. Hơn một nghìn khách hàng doanh nghiệp với chi tiêu hàng năm vượt quá một triệu đô la Mỹ tạo nên nền tảng doanh thu của Anthropic – mỗi khách hàng đều được đại diện bởi một hợp đồng thực tế, việc sử dụng dịch vụ của kỹ sư thực tế và tỷ lệ gia hạn thực tế. Doanh thu định kỳ hàng năm (ARR) hiện tại của Zhipu trong lĩnh vực MaaS là 1,7 tỷ nhân dân tệ, tương đương khoảng 230 triệu đô la Mỹ, không cùng quy mô với Anthropic, cho thấy vẫn còn một khoảng cách đáng kể giữa việc "đạt chuẩn" và "bắt kịp".
Đáng chú ý hơn cả là động thái định giá được thực hiện vào ngày phát hành GLM-5.1: Zhipu đã đi ngược xu hướng bằng cách tăng giá API của mình lên 10%, đánh dấu lần tăng giá lần trong năm nay — giá token đã tăng lũy kế 83% trong quý đầu tiên của năm 2026, nhưng khối lượng cuộc gọi thực tế đã tăng 400%. Những con số này hiện là tín hiệu kinh doanh mạnh mẽ nhất: độ nhạy cảm về giá không cao như người ta tưởng, và người dùng có mức độ chấp nhận nhất định đối với phí bảo hiểm tính năng.
Tuy nhiên, tính bền vững của việc tăng giá phụ thuộc vào ba giả định, mỗi giả định đều không chắc chắn:
- Liệu mức phí ưu đãi về năng lực có bền vững? Lợi thế hàng đầu tập trung cao độ vào lĩnh vực lập trình, và không có sự hỗ trợ ưu đãi đáng kể nào cho các trường hợp không liên quan đến lập trình.
- Liệu chi phí có thể giảm được không? Tỷ suất lợi nhuận gộp 41% có nghĩa là điểm uốn lợi nhuận vẫn còn khá xa.
- Liệu tốc độ tăng trưởng này có thể được duy trì? Với dân số cơ sở là 724 triệu người, việc duy trì tốc độ tăng trưởng trên 130% sẽ trở nên tăng đáng kể.
Sau khi điều chỉnh giá, giá của token truy cập bộ nhớ cache GLM-5.1 trong các kịch bản lập trình hiện gần bằng mức giá của Claude Sonnet 4.6 — lưu ý, đó là Sonnet, không phải Opus. Giá API của Claude Opus 4.6 vẫn cao hơn đáng kể so với Zhipu. Đối với người dùng doanh nghiệp, cùng mức giá này tạo ra sự đánh đổi giữa "hệ sinh thái trưởng thành hơn của Claude" và "GLM-5.1, với hiệu suất tương tự nhưng độ tin cậy còn đáng ngờ."
Từ "bắt kịp" đến "giải quyết các vấn đề then chốt"
Trở lại câu hỏi ban đầu: Tại sao rất nhiều công ty lại vội vàng tuyên bố chính thức việc áp dụng GLM-5.1?
Một phần lý do là mô hình này thực sự đáng được đánh giá, đặc biệt là trong bối cảnh tự động hóa lập trình; một phần lý do là giấy phép mã nguồn mở MIT cung cấp lý do chi phí thấp để truy cập; và một phần lý do, thành thật mà nói, đơn giản chỉ là do quy ước.
Nhưng nhìn vào làn sóng tiếp cận doanh nghiệp cho thấy nhiều hơn chỉ là sự ra mắt của một mô hình duy nhất: ngành công nghiệp mô hình cỡ lớn của Trung Quốc đang chuyển đổi từ giai đoạn "bắt kịp" rộng rãi sang giai đoạn "giải quyết các thách thức then chốt" được tinh chỉnh.
Dấu hiệu của giai đoạn bắt kịp là khoảng cách giữa các mẫu xe trong nước và các mẫu xe hàng đầu thế giới trên các tiêu chuẩn quan trọng đã thu hẹp từ "khoảng cách thế hệ" xuống còn "khoảng cách một chữ số" - GLM-5.1 đã đạt được điểm này về mặt lập trình.
Những thách thức then chốt trong giai đoạn quan trọng này là liệu vị thế dẫn đầu về công nghệ có thể tạo ra rào cản thương mại hay không, liệu niềm tin vào nguồn mở có thể chuyển hóa thành sức mạnh định giá hay không, và khi nào các khoản đầu tư lớn vào nghiên cứu và phát triển sẽ tạo ra tác động tích cực đến báo cáo lãi lỗ. Zhipu vẫn chưa trả lời được ba câu hỏi này, và toàn bộ ngành công nghiệp mô hình quy mô lớn trong nước cũng vậy.
Việc ra mắt GLM-5.1 chứng minh rằng các mô hình quy mô lớn của Trung Quốc có thể cạnh tranh với các sản phẩm hàng đầu thế giới trong các lĩnh vực cụ thể. Tuy nhiên, hành trình từ "cạnh tranh trên cùng một sân chơi" đến "thắng lợi trên thị trường" vẫn là một chặng đường chưa được khám phá. (Bài viết này được đăng lần đầu trên ứng dụng TMTPost, tác giả: Silicon Valley Tech_news, biên tập viên: Jiao Yan)





