OpenAI tung ra Gpt-oss-120b và Gpt-oss-20b, mang các mô hình tiên tiến nhất đến các thiết bị cục bộ

Bài viết này được dịch máy
Xem bản gốc
OpenAI tung ra Gpt-oss-120b và Gpt-oss-20b, mang các mô hình tiên tiến nhất đến các thiết bị cục bộ

Tổ chức nghiên cứu trí tuệ nhân tạo OpenAI đã công bố phát hành hai mô hình ngôn ngữ mở tiên tiến mang tên gpt-oss-120b và gpt-oss-20b. Các mô hình này mang lại hiệu suất mạnh mẽ trong các ứng dụng thực tế mà vẫn duy trì chi phí vận hành thấp. Được phát hành theo giấy phép Apache 2.0 linh hoạt, chúng vượt trội hơn các mô hình mở khác có quy mô tương tự về các tác vụ suy luận, thể hiện khả năng sử dụng công cụ mạnh mẽ và được tối ưu hóa để hoạt động hiệu quả trên phần cứng cấp độ người dùng. Quá trình đào tạo bao gồm các kỹ thuật học tăng cường kết hợp với những hiểu biết sâu sắc thu được từ các mô hình nội bộ tiên tiến nhất của OpenAI, bao gồm o3 và các hệ thống tiên tiến khác.

Mô hình gpt-oss-120b có hiệu năng gần như ngang bằng với mô hình o4-mini của OpenAI trên các bài kiểm tra chuẩn suy luận cơ bản và hoạt động hiệu quả trên một GPU 80 GB duy nhất. Trong khi đó, mô hình gpt-oss-20b đạt kết quả tương đương với o3-mini của OpenAI trên các bài kiểm tra chuẩn thông thường và có khả năng hoạt động trên các thiết bị biên chỉ với 16 GB bộ nhớ, giúp nó phù hợp cho các ứng dụng trên thiết bị, suy luận cục bộ hoặc thử nghiệm nhanh mà không yêu cầu cơ sở hạ tầng đắt đỏ. Cả hai mô hình đều thể hiện khả năng mạnh mẽ trong việc sử dụng công cụ, gọi hàm ít lần, suy luận chuỗi suy nghĩ (CoT) như đã được chứng minh trong đánh giá tác nhân Tau-Bench và HealthBench, đôi khi vượt trội hơn các mô hình độc quyền như OpenAI o1 và GPT-4o.

Các mô hình này tương thích với API Responses và được thiết kế để tích hợp vào quy trình làm việc của agentic, cung cấp khả năng làm theo hướng dẫn nâng cao, sử dụng công cụ bao gồm tìm kiếm trên web và thực thi mã Python, cũng như khả năng lập luận. Điều này bao gồm khả năng lập luận có thể điều chỉnh để tối ưu hóa cho các tác vụ không yêu cầu lập luận phức tạp hoặc ưu tiên độ trễ thấp trong kết quả đầu ra cuối cùng. Cả hai mô hình đều có thể tùy chỉnh hoàn toàn, hỗ trợ lập luận chuỗi suy nghĩ đầy đủ và hỗ trợ các định dạng đầu ra có cấu trúc.

Các cân nhắc về an toàn là trọng tâm trong việc phát hành các mô hình này, đặc biệt là do tính chất mở của chúng. Bên cạnh đào tạo và đánh giá an toàn toàn diện, một lớp thử nghiệm bổ sung đã được áp dụng thông qua phiên bản gpt-oss-120b được tinh chỉnh theo hướng đối kháng trong Khung Chuẩn bị của OpenAI. Các mô hình gpt-oss đạt hiệu suất chuẩn an toàn tương đương với các mô hình độc quyền mới nhất của OpenAI, mang đến cho các nhà phát triển sự đảm bảo an toàn tương tự. Kết quả chi tiết và thông tin bổ sung có sẵn trong bài nghiên cứu và thẻ mô hình, với phương pháp luận được các chuyên gia bên ngoài đánh giá, thể hiện sự tiến bộ trong việc thiết lập các tiêu chuẩn an toàn mới cho các mô hình trọng lượng mở.

OpenAI đã hợp tác với các đối tác ban đầu như AI Sweden, Orange và Snowflake để khám phá các ứng dụng thực tế của các mô hình mở này, bao gồm lưu trữ tại chỗ để bảo mật dữ liệu và tinh chỉnh các tập dữ liệu chuyên biệt. Việc cung cấp các mô hình mở này nhằm mục đích trao quyền cho nhiều đối tượng người dùng - từ các nhà phát triển cá nhân đến các doanh nghiệp lớn và các cơ quan chính phủ - để vận hành và tùy chỉnh AI trên cơ sở hạ tầng của riêng họ. Khi kết hợp với các mô hình khác có thể truy cập thông qua API của OpenAI, các nhà phát triển có thể lựa chọn từ một loạt các tùy chọn cân bằng giữa hiệu suất, chi phí và độ trễ để hỗ trợ các quy trình làm việc AI đa dạng.

gpt-oss là một vấn đề lớn; nó là một mô hình suy luận trọng số mở tiên tiến, với hiệu suất thực tế mạnh mẽ tương đương với o4-mini, mà bạn có thể chạy cục bộ trên máy tính của mình (hoặc điện thoại có kích thước nhỏ hơn). Chúng tôi tin rằng đây là mô hình mở tốt nhất và hữu dụng nhất trong…

– Sam Altman (@sama) Ngày 5 tháng 8 năm 2025

Gpt-oss-120b và Gpt-oss-20b hiện có sẵn miễn phí với hỗ trợ phần cứng và nền tảng mở rộng

Các trọng số cho cả gpt-oss-120b và gpt-oss-20b đều có thể tải xuống miễn phí trên Hugging Face và được cung cấp với lượng tử hóa gốc ở định dạng MXFP4. Điều này cho phép mô hình gpt-oss-120b hoạt động trong phạm vi dung lượng bộ nhớ 80GB, trong khi mô hình gpt-oss-20b chỉ yêu cầu 16GB. Cả hai mô hình đều đã trải qua quá trình đào tạo hậu kỳ bằng định dạng dấu nhắc Harmony, và một trình kết xuất Harmony mã nguồn mở có sẵn bằng Python và Rust để tạo điều kiện thuận lợi cho việc áp dụng. Ngoài ra, các triển khai tham chiếu được cung cấp để chạy suy luận bằng PyTorch và nền tảng Metal của Apple, cùng với một bộ công cụ ví dụ cho ứng dụng thực tế.

Các mô hình này được thiết kế để mang lại sự linh hoạt và dễ sử dụng, hỗ trợ triển khai cục bộ, trên thiết bị hoặc thông qua các nhà cung cấp suy luận của bên thứ ba. Để tăng cường khả năng truy cập, chúng tôi đã thiết lập quan hệ đối tác với các nền tảng triển khai lớn trước khi ra mắt, bao gồm Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare và OpenRouter. Chúng tôi cũng hợp tác với các nhà sản xuất phần cứng như NVIDIA, AMD, Cerebras và Groq để đảm bảo hiệu suất tối ưu trên nhiều hệ thống khác nhau.

Cùng với bản phát hành này, Microsoft đang cung cấp các phiên bản tối ưu hóa GPU của mô hình gpt-oss-20b cho các thiết bị Windows. Được hỗ trợ bởi ONNX Runtime, các phiên bản này hỗ trợ suy luận cục bộ và có thể truy cập thông qua Foundry Local và AI Toolkit cho VS Code, giúp đơn giản hóa quy trình tích hợp cho các nhà phát triển trên nền tảng Windows.

Đối với các nhà phát triển đang tìm kiếm các mô hình hoàn toàn tùy chỉnh, có khả năng tinh chỉnh và triển khai trong môi trường riêng của họ, các mô hình gpt-oss cung cấp một giải pháp phù hợp. Ngược lại, đối với những người yêu cầu khả năng đa phương thức, công cụ tích hợp sẵn và tích hợp nền tảng liền mạch, các mô hình được cung cấp thông qua nền tảng API vẫn là lựa chọn ưu tiên. Phản hồi của nhà phát triển tiếp tục được theo dõi, với khả năng xem xét hỗ trợ API cho các mô hình gpt-oss trong tương lai.

Việc giới thiệu gpt-oss-120b và gpt-oss-20b đánh dấu một bước tiến đáng chú ý trong lĩnh vực mô hình trọng số mở, mang lại những cải tiến đáng kể về khả năng suy luận và độ an toàn ở quy mô của chúng. Các mô hình mở này bổ sung cho các mô hình lưu trữ độc quyền bằng cách cung cấp cho các nhà phát triển một bộ công cụ đa dạng hơn để tạo điều kiện thuận lợi cho nghiên cứu tiên tiến, kích thích đổi mới và thúc đẩy phát triển AI an toàn hơn, minh bạch hơn trên nhiều ứng dụng khác nhau.

Hơn nữa, các mô hình mở này giúp giảm rào cản gia nhập cho các thị trường mới nổi, các lĩnh vực hạn chế về nguồn lực và các tổ chức nhỏ hơn, những nơi có thể gặp khó khăn khi áp dụng các giải pháp độc quyền. Bằng cách cung cấp các công cụ mạnh mẽ và dễ tiếp cận, người dùng trên toàn thế giới được trao quyền để phát triển, đổi mới và tạo ra những cơ hội mới. Sự phổ biến rộng rãi của các mô hình trọng lượng mở có năng lực này được sản xuất tại Hoa Kỳ góp phần mở rộng khả năng tiếp cận AI một cách công bằng.

Một hệ sinh thái đáng tin cậy gồm các mô hình mở là một thành phần thiết yếu trong việc thúc đẩy khả năng tiếp cận AI rộng rãi và toàn diện. Các nhà phát triển và nhà nghiên cứu được khuyến khích sử dụng các mô hình này để thử nghiệm, hợp tác và mở rộng ranh giới của những gì có thể đạt được. Những tiến bộ không ngừng trong lĩnh vực này đang được kỳ vọng với sự quan tâm lớn.

Bài đăng OpenAI triển khai Gpt-oss-120b và Gpt-oss-20b, mang các mô hình tiên tiến nhất đến các thiết bị cục bộ xuất hiện đầu tiên trên Metaverse Post .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận