Tuần này, hai phòng thí nghiệm AI của Mỹ đã phát hành các mô hình mã nguồn mở, mỗi phòng có cách tiếp cận khác nhau đối với cùng một vấn đề: làm thế nào để cạnh tranh với sự thống trị của Trung Quốc trong các hệ thống AI có thể truy cập công khai.
Deep Cogito đã cho ra mắt Cogito v2.1, một mô hình khổng lồ với 671 tỷ tham số mà người sáng lập Drishan Arora gọi là "LLM có trọng số mở tốt nhất của một công ty Hoa Kỳ".
Không nhanh như vậy, Viện Allen về AI phản bác, nơi vừa loại bỏ Olmo 3 , coi đây là "mô hình cơ sở mở hoàn toàn tốt nhất". Olmo 3 tự hào về tính minh bạch hoàn toàn, bao gồm cả dữ liệu đào tạo và mã của nó.
Trớ trêu thay, mô hình chủ lực của Deep Cognito lại được xây dựng trên nền tảng Trung Quốc . Arora thừa nhận trên X rằng Cogito v2.1 "phân nhánh từ mô hình cơ sở Deepseek được cấp phép mở từ tháng 11 năm 2024".
Điều đó đã gây ra một số lời chỉ trích và thậm chí là tranh luận về việc liệu việc tinh chỉnh mô hình của Trung Quốc có được coi là tiến bộ AI của Mỹ hay không, hay nó chỉ chứng minh các phòng thí nghiệm của Mỹ đã tụt hậu đến mức nào.
Bất chấp điều đó, hiệu quả mà Cogito mang lại so với DeepSeek là có thật.
Deep Cognito tuyên bố Cogito v2.1 tạo ra chuỗi suy luận ngắn hơn 60% so với DeepSeek R1 trong khi vẫn duy trì hiệu suất cạnh tranh.
Sử dụng cái mà Arora gọi là “Chưng cất và khuếch đại lặp đi lặp lại”—dạy các mô hình phát triển trực giác tốt hơn thông qua các vòng lặp tự cải thiện—công ty khởi nghiệp này đã đào tạo mô hình của mình chỉ trong 75 ngày trên cơ sở hạ tầng từ RunPod và Nebius.
Nếu các tiêu chuẩn là đúng, đây sẽ là LLM nguồn mở mạnh mẽ nhất hiện đang được một nhóm ở Hoa Kỳ duy trì.
Cho đến nay, Trung Quốc vẫn đang dẫn đầu trong lĩnh vực AI nguồn mở và các công ty Hoa Kỳ ngày càng dựa vào các mô hình cơ sở của Trung Quốc một cách âm thầm hoặc công khai để duy trì khả năng cạnh tranh.
Động thái này rất rủi ro. Nếu các phòng thí nghiệm Trung Quốc trở thành hệ thống đường ống mặc định cho AI mở trên toàn thế giới, các công ty khởi nghiệp Mỹ sẽ mất đi sự độc lập về kỹ thuật, quyền thương lượng và khả năng định hình các tiêu chuẩn ngành.
AI trọng số mở xác định ai kiểm soát các mô hình thô mà mọi sản phẩm hạ nguồn phụ thuộc vào.
Hiện nay, các mô hình nguồn mở của Trung Quốc (DeepSeek, Qwen, Kimi, MiniMax) đang chiếm ưu thế trên toàn cầu vì chúng rẻ, nhanh, hiệu quả cao và được cập nhật liên tục .
Nhiều công ty khởi nghiệp ở Hoa Kỳ đã xây dựng dựa trên nền tảng này, ngay cả khi họ công khai tránh thừa nhận điều đó .
Điều đó có nghĩa là các công ty Mỹ đang xây dựng doanh nghiệp dựa trên Sở hữu trí tuệ (IP) nước ngoài, các chương trình đào tạo nước ngoài và tối ưu hóa phần cứng nước ngoài. Về mặt chiến lược, điều này đặt Mỹ vào cùng một tình thế mà họ đã từng phải đối mặt với ngành chế tạo chất bán dẫn: ngày càng phụ thuộc vào chuỗi cung ứng của nước khác.
Cách tiếp cận của Deep Cogito—bắt đầu từ Fork DeepSeek—cho thấy ưu điểm (lặp lại nhanh) và nhược điểm (phụ thuộc).
Cách tiếp cận của Viện Allen - xây dựng Olmo 3 với sự minh bạch tuyệt đối - cho thấy một giải pháp thay thế: nếu Hoa Kỳ muốn có vị thế dẫn đầu về AI cởi mở, họ phải tự xây dựng lại toàn bộ hệ thống, từ dữ liệu đến công thức đào tạo cho đến các điểm kiểm tra. Việc này tốn nhiều công sức và chậm chạp, nhưng nó bảo toàn được chủ quyền đối với công nghệ nền tảng.
Về lý thuyết, nếu bạn đã thích DeepSeek và sử dụng trực tuyến, Cogito sẽ mang lại cho bạn câu trả lời tốt hơn hầu hết thời gian. Nếu bạn sử dụng thông qua API, bạn sẽ hài lòng gấp đôi, vì bạn sẽ phải trả ít tiền hơn để tạo ra những câu trả lời tốt nhờ hiệu quả được cải thiện.
Viện Allen lại đi theo hướng ngược lại. Toàn bộ họ mô hình Olmo 3 ra mắt cùng Dolma 3 , một tập dữ liệu huấn luyện 5,9 nghìn tỷ token được xây dựng từ đầu, cùng với mã nguồn, công thức và điểm kiểm tra hoàn chỉnh từ mọi giai đoạn huấn luyện.
Tổ chức phi lợi nhuận này đã phát hành ba biến thể mô hình—Base, Think và Instruct—với 7 tỷ và 32 tỷ tham số.
Viện này viết: "Sự cởi mở thực sự trong AI không chỉ là về khả năng tiếp cận mà còn là về sự tin tưởng, trách nhiệm giải trình và tiến trình chung".
Olmo 3-Think 32B là mô hình lý luận mở hoàn toàn đầu tiên ở quy mô đó, được đào tạo trên khoảng một phần sáu mã thông báo của các mô hình tương đương như Qwen 3, đồng thời đạt được hiệu suất cạnh tranh.
Deep Cognito đã huy động được 13 triệu đô la vốn hạt giống do Benchmark dẫn đầu vào tháng 8. Công ty khởi nghiệp này dự định phát hành các mô hình biên giới với tối đa 671 tỷ tham số được đào tạo trên "khả năng tính toán mạnh mẽ hơn đáng kể với bộ dữ liệu tốt hơn".
Trong khi đó, Nvidia đã hỗ trợ phát triển Olmo 3, với phó chủ tịch Kari Briski gọi điều này là cần thiết đối với "các nhà phát triển để mở rộng AI với các mô hình mở do Hoa Kỳ xây dựng".
Học viện đã đào tạo trên các cụm GPU H100 của Google Cloud, đạt được yêu cầu tính toán ít hơn 2,5 lần so với Llama 3.1 8B của Meta
Cogito v2.1 có sẵn để dùng thử trực tuyến miễn phí tại đây . Bạn có thể tải xuống mô hình tại đây , nhưng lưu ý: nó yêu cầu card rất mạnh để chạy.
Olmo có sẵn để thử nghiệm tại đây . Các mô hình có thể được tải xuống tại đây . Những mô hình này thân thiện với người tiêu dùng hơn, tùy thuộc vào mô hình bạn chọn.




