OpenAI GPT-5.3-Codex-Spark ra mắt: Người dùng Pro có thể truy cập sớm và nhận phản hồi nhanh hơn.

Bài viết này được dịch máy
Xem bản gốc

Mới đây, OpenAI đã công bố hợp tác với công ty khởi nghiệp chip AI Cerebras để ra mắt GPT-5.3-Codex-Spark, một phiên bản nhỏ hơn của GPT-5.3-Codex và là mô hình đầu tiên của OpenAI được thiết kế đặc biệt cho "lập trình thời gian thực". Ban đầu, nó sẽ được cung cấp cho người dùng ChatGPT Pro, cho phép các nhà phát triển trải nghiệm trực tiếp.

Cerebras là gì? Động lực nào thúc đẩy sự hợp tác giữa hai bên?

OpenAI đang đối mặt với áp lực kép từ sự tăng trưởng người dùng nhanh chóng và nguồn lực tỷ lệ băm, và đang rất cần tỷ lệ băm suy luận AI có độ trễ cực thấp để hỗ trợ các kịch bản tương tác thời gian thực nhằm cải thiện trải nghiệm phản hồi thời gian thực của các sản phẩm như ChatGPT, tạo chương trình và AI Agent.

Các chip cấp độ wafer của Cerebras loại bỏ các nút thắt cổ chai trong giao tiếp của các cụm GPU truyền thống, mang lại hiệu suất suy luận nhanh hơn và hiệu quả hơn. Do đó, OpenAI và Cerebras đã ký kết thỏa thuận hợp tác nhiều năm trị giá hơn 10 tỷ đô la, mua sắm tới 750MW sức mạnh tính toán độ trễ thấp. Mục tiêu là để tăng tốc các truy vấn phức tạp, tạo mã và trải nghiệm tương tác thời gian thực, đồng thời cũng là một bước đi chiến lược để giảm sự phụ thuộc vào NVIDIA và tăng cường khả năng phục hồi Chuỗi cung ứng.

Sự hợp tác giữa OpenAI và Cerebras sẽ được ra mắt theo từng giai đoạn, với việc phát triển cơ sở hạ tầng bắt đầu vào năm 2026 và hoàn tất triển khai toàn diện vào năm 2028. Cerebras sẽ cung cấp máy chủ và tỷ lệ băm độ trễ thấp chuyên dụng cho trung tâm dữ liệu, trong khi OpenAI sẽ nhận được năng lực tính toán độ trễ cực thấp chuyên dụng, vốn đã được sử dụng trong hoạt động suy luận của mô hình hợp tác đầu tiên, GPT-5.3-Codex-Spark.

Codex-Spark được thiết kế cho lập trình cộng tác thời gian thực, với cơ chế tự động hóa hai luồng.

OpenAI tuyên bố rằng các mô hình tiên tiến mới ra mắt của họ có thể tự động thực hiện nhiệm vụ phức tạp trong thời gian dài, hoạt động liên tục trong nhiều giờ, nhiều ngày, hoặc thậm chí nhiều tuần mà không cần sự can thiệp của con người. Mặt khác, Codex-Spark là mô hình đầu tiên được thiết kế đặc biệt cho "lập trình cộng tác thời gian thực với Codex", cho phép các nhà phát triển yêu cầu sửa đổi mã, điều chỉnh logic và tinh chỉnh giao diện ngay lập tức, và xem kết quả ngay lập tức. Điều này thể hiện hai chế độ quy trình làm việc tự động hiện đang được Codex cung cấp:

"Một loại là thực thi tự động dài hạn, thực hiện nhiệm vụ kéo dài, và loại kia là tương tác thời gian thực, chỉnh sửa nhanh chóng và phản hồi tức thì."

OpenAI tuyên bố sẽ dần dần mở rộng chức năng và phạm vi của tính mở dựa trên phản hồi từ việc sử dụng thực tế của các nhà phát triển.

Các nguồn tài nguyên có độ trễ thấp bị hạn chế và tình trạng tắc nghẽn lưu lượng truy cập có thể xảy ra trong giờ cao điểm.

Trong giai đoạn xem trước nghiên cứu, Codex-Spark cung cấp độ dài ngữ cảnh 128k, chỉ hỗ trợ nhập văn bản và có giới hạn lưu lượng và tốc độ độc lập, không tiêu tốn hạn mức của mô hình tiêu chuẩn. OpenAI cũng nhắc nhở người dùng rằng do sử dụng các tài nguyên tính toán độ trễ thấp đặc biệt, việc xếp hàng hoặc hạn chế truy cập tạm thời có thể xảy ra trong thời gian sử dụng cao điểm để duy trì sự ổn định tổng thể của dịch vụ.

Codex-Spark tối ưu hóa lập trình tương tác, cân bằng giữa tốc độ và hiệu năng.

Codex-Spark được tối ưu hóa cho các kịch bản lập trình tương tác, nhấn mạnh rằng tốc độ và khả năng là như nhau. Người dùng có thể gián đoạn hoặc điều chỉnh hướng trong thời gian thực trong quá trình vận hành mô hình và nhanh chóng, lặp đi lặp lại việc sửa đổi nội dung.

Để đảm bảo phản hồi nhanh chóng, hệ thống của OpenAI mặc định áp dụng quy trình làm việc gọn nhẹ, chỉ thực hiện những sửa đổi tối thiểu cần thiết và không tự động chạy thử nghiệm trừ khi người dùng yêu cầu rõ ràng. Các ví dụ chính thức bao gồm các kịch bản ứng dụng như tạo ra trò chơi Rắn, lập kế hoạch dự án và dịch tập tin. Hình ảnh bên dưới là một ví dụ chính thức, nhấn mạnh:

"Khi tạo ra game, GPT-5.3-Codex-Spark đã vượt qua so với phiên bản tiền nhiệm GPT-5.3-Codex về khả năng lập trình và tốc độ."

Sự phát triển hướng đến hiệu năng, tối ưu hóa phần mềm kết hợp với chip có độ trễ thấp để hỗ trợ

OpenAI cho biết Codex-Spark đã giảm đáng kể thời gian hoàn thành nhiệm vụ tổng thể và đồng thời tối ưu hóa toàn bộ quy trình từ khi gửi yêu cầu đến khi nhận phản hồi, bao gồm giảm khoảng 80% chi phí truyền dữ liệu máy trạm và máy chủ và giảm khoảng 30% gánh nặng xử lý trên mỗi token. Hơn nữa, thời gian hiển thị văn bản phản hồi đầu tiên sau khi người dùng gửi yêu cầu đã giảm khoảng 50%, dẫn đến cải thiện đáng kể độ mượt mà của tương tác tổng thể.

Về phần cứng, Codex-Spark được triển khai trên nền tảng suy luận độ trễ thấp Wafer Scale Engine 3 của Cerebras và đã được tích hợp vào kiến ​​trúc sản xuất hiện có của OpenAI. OpenAI giải thích rằng GPU vẫn là lực lượng cốt lõi cho việc huấn luyện và suy luận, chịu trách nhiệm cho các phép tính quy mô lớn và tiết kiệm chi phí, trong khi Cerebras bổ sung cho các kịch bản độ trễ cực thấp; cả hai có thể được sử dụng cùng nhau trong cùng một quy trình làm việc.

Hiện tại, Codex-Spark đang được cung cấp cho người dùng ChatGPT Pro dưới dạng bản xem trước nghiên cứu, và API chỉ được một số đối tác thiết kế thử nghiệm. Về mặt bảo mật, nó đã vượt qua đánh giá tiêu chuẩn và không đạt đến ngưỡng khả năng rủi ro cao nội bộ. Trong tương lai, nó cũng sẽ phát triển theo hướng tiếp cận hai chế độ, dần dần tích hợp tương tác thời gian thực và nhiệm vụ dài hạn.

(OpenAI vừa phát hành ứng dụng Codex mới cho macOS! Ứng dụng này chỉ có sẵn trong thời gian giới hạn dành cho người dùng ChatGPT miễn phí.)

Bài viết này, "OpenAI GPT-5.3-Codex-Spark ra mắt: Người dùng chuyên nghiệp được truy cập sớm và phản hồi nhanh hơn," lần đầu tiên xuất hiện trên ABMedia, ABMedia .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận