[Giới thiệu] GPT-5.2, được ca ngợi là sản phẩm đạt điểm tuyệt đối và đứng đầu bảng xếp hạng, dường như đã mất đi ưu thế của mình kể từ khi ra mắt? Nhiều cư dân mạng đã nhận xét rằng nó dường như yếu hơn đáng kể so với phiên bản ban đầu. Tuy nhiên, những người đã thử nghiệm sớm khẳng định nó thực sự rất mạnh mẽ, thậm chí xứng đáng với danh hiệu GPT-6!
Đêm qua, OpenAI đã gây chấn động dư luận với thông tin về GPT-5.2.
Theo các bài kiểm tra hiệu năng chính thức, nó gần như vượt trội hoàn toàn so với Gemini 3 Pro.
GPT-5.2 nổi bật trong việc hỗ trợ người dùng hoàn thành nhiệm vụ có giá trị kinh tế, chẳng hạn như tạo bảng tính, làm bài thuyết trình PowerPoint, viết và xem xét mã, phân tích tài liệu dài, v.v.
Hơn nữa, người ta khẳng định rằng trong các bài kiểm tra chuẩn như GDPval, nó có thể bắt kịp hoặc thậm chí vượt trội hơn các chuyên gia tới 70,9% thời gian.
Có thể nói rằng đây là một sản phẩm mà OpenAI quyết tâm hoàn thành, ngay cả khi phải thay đổi mục tiêu về Trí tuệ Nhân tạo Tổng quát (AGI) của mình, và nó cũng gánh vác trách nhiệm nặng nề trong việc đối phó với Gemini 3.
Vậy, cảm giác khi sử dụng GPT-5.2 trong điều kiện thực tế như thế nào?
Thử nghiệm thực tế GPT-5.2: Liệu trí thông minh của nó có suy giảm ngay sau khi ra mắt?
Thật bất ngờ, một bài đăng về việc bài kiểm tra GPT-5.2 thất bại đã lan truyền rộng rãi trên X.
Nếu bạn hỏi nó, "Có bao nhiêu chữ R trong từ 'garlic'?", nó sẽ trả lời: 0.
Ngược lại, các mô hình khác hoạt động ổn định hơn nhiều.
Tóm lại, đây là một vấn đề cơ bản của LLM: không thể đếm số lượng chữ cái do quá trình phân tách từ.
Tuy nhiên, miễn là bạn buộc phải chọn phiên bản Tư duy, GPT-5.2 có thể trả lời câu hỏi này một cách chính xác.
Trên Reddit, nhiều người dùng cũng chỉ ra rằng GPT-5.2 dường như có rất nhiều tính năng khi mới được phát hành.
Kết quả là, vài giờ sau, nó đột nhiên trở nên kém thông minh hơn.
Một số người cho biết thiết bị GPT-5.2 của họ hoạt động tốt khi bắt đầu sử dụng lúc 8:30 sáng, nhưng đột nhiên ngừng hoạt động sau khi họ uống xong một tách cà phê.
Dường như lần một mô hình mới được phát hành, nó lại bị suy yếu chỉ sau vài giờ. OpenAI đang thực hiện kiểu thao tác gì vậy?
Một chuyên gia làm chứng: Nó vẫn còn khá mạnh.
Tuy nhiên, sự cố nhỏ này không ảnh hưởng đến những lời nhận xét tích cực đang lan truyền trong công chúng.
Đêm qua, khi GPT-5.2 được phát hành, cư dân mạng đã vô cùng bất ngờ.
Ví dụ, một số người cho lần bước tiến vượt bậc trong ARC-AGI 2 thực sự đáng kinh ngạc. Vậy chính xác thì OpenAI đã đạt được điều này như thế nào?
Ban đầu mọi người cho rằng OpenAI đã tụt hậu so với Google, nhưng dường như điều đó không đúng!
Có vẻ như OpenAI vẫn đang giữ lại rất nhiều tính năng ấn tượng chưa được công bố.
Hơn nữa, những người dùng đã trải nghiệm phiên bản đầy đủ sức mạnh siêu việt của GPT-5.2 đều dành cho nó những lời khen ngợi nhất trí.
Giáo sư Ethan Mollick của trường Kinh doanh Wharton cho biết ông đã may mắn được sử dụng GPT-5.2 trước đó và hiệu năng của nó rất ấn tượng.
Ví dụ, hãy xem xét nhiệm vụ này: Tạo một shader trực quan hấp dẫn có thể chạy trong twigl-dot-app, làm cho nó trông giống như một thành phố tân Gothic vô tận với những tòa tháp, một phần chìm trong đại dương dữ dội.
Nhiều cư dân mạng khen ngợi video, cho rằng GPT-5.2 không chỉ tuân theo hướng dẫn mà còn lựa chọn cấu trúc và tính thẩm mỹ rất hợp lý trong mã nguồn.
Sau đó, giáo sư yêu cầu GPT-5.2 tạo một biểu đồ về điểm số bài kiểm tra của con người qua các năm.
Nhiệm vụ này rất phức tạp vì nó đòi hỏi phải tìm kiếm và đối chiếu lượng lớn thông tin trong suốt quá trình, sau đó tạo ra tất cả các kết quả hữu ích cùng một lúc.
Như bạn thấy, hiệu năng của GPT-5.2 thực sự đáng kinh ngạc.
Ví dụ mã Twigl này minh họa khả năng lập trình mạnh mẽ của GPT-5.2.
Một bước tiến vượt bậc trong tư duy logic, toán học và lập trình.
Giám đốc điều hành của Magicpathai cho biết ông đã thử nghiệm GPT-5.2 trong một thời gian.
Ông đánh giá mô hình này như sau: "Một bước tiến lớn trong tư duy phức tạp, toán học, lập trình và mô phỏng."
Trong ví dụ này, nó xây dựng một công cụ đồ họa 3D hoàn chỉnh trong một tệp duy nhất, hỗ trợ điều khiển tương tác và đạt độ phân giải lên đến 4K.
Trong video này, anh ấy cũng đã thực hiện một bài toán suy luận có độ khó cao bằng cách sử dụng GPT-5.2.
Một số người đặt câu hỏi liệu công cụ đồ họa có được xây dựng bằng thư viện GPT-5.2 hay không. Giám đốc điều hành khẳng định rằng toàn bộ mã và đồ họa đều được viết hoàn toàn từ đầu.
Nói cách khác, sự phát triển của GPT-5.2 không phải là sự cải tiến từng bước nhỏ, mà là một sự thay đổi hoàn toàn về chức năng của trợ lý lập trình.
Cư dân mạng thốt lên: Tốc độ phát triển này thực sự chóng mặt.
CEO đánh giá GPT-5.2 như sau: đây là mô hình tác nhân tốt nhất do OpenAI ra mắt, có khả năng vận hành liên tục lượng lớn công cụ mà không gặp vấn đề gì, và nhanh hơn phiên bản tiền nhiệm.
Để kiểm tra chức năng của nó, ông đã xây dựng một tác nhân có thể sử dụng GPT-5.2, 5.1 và 5 cùng lúc.
Kết quả cho thấy GPT-5.2 không yêu cầu bất kỳ phần mở đầu nào khi gọi các công cụ và nó không bị mất ngay cả trong các phiên làm việc dài.
Thậm chí có người còn yêu cầu GPT-5.2 viết thế giới nội tâm của họ bằng mã ASCII, và câu trả lời khá bất ngờ.
Tóm lại, dựa trên phản hồi từ hầu hết người dùng, GPT-5.2 có thể xử lý các công việc thực tế một cách ổn định, rõ ràng và mượt mà.
So với mô hình cũ dễ bị gián đoạn nhỏ, GPT-5.2 hiểu rõ nhiệm vụ hơn và hoàn thành nó một cách mượt mà hơn.
Theo giải thưởng ARC, điểm số tiên tiến nhất (SOTA) mới nhất của GPT-5.2 Pro (X-High) là 90,5%, có nghĩa là hiệu quả của AI đã được cải thiện khoảng 390 lần trong một năm.
Danh tính bí ẩn của người Trung Quốc đứng sau tất cả đã được hé lộ.
Cũng như trước đây, nhiều người hùng thầm lặng lần dự án GPT-5.2 là người Trung Quốc.
Ví dụ, Yu Bai, một nhà nghiên cứu người Trung Quốc tại OpenAI và là cựu sinh viên Đại học Bắc Kinh, là một trong những người đầu tiên công bố GPT-5.2.
Ông theo học ngành toán học tại Đại học Bắc Kinh để lấy bằng cử nhân và nhận bằng tiến sĩ thống kê tại Đại học Stanford.
Yun Dai, người phụ trách công tác hậu đào tạo, có bằng cử nhân từ Đại học Thanh Hoa và bằng thạc sĩ khoa học máy tính từ Đại học California, Irvine.
Một nhà nghiên cứu người Trung Quốc khác tại OpenAI, Zuxin Liu, đang nghiên cứu về huấn luyện sau cho các mô hình suy luận.
Ông tốt nghiệp cử nhân tại Đại học Beihang và tiếp tục theo học thạc sĩ và tiến sĩ tại Đại học CMU.
Aston Zhang là nghiên cứu sinh tiến sĩ tại Đại học Illinois tại Urbana-Champaign và hiện đang là nhà nghiên cứu tại OpenAI.
Ông đã cảm ơn đội ngũ, đặc biệt nhấn mạnh khả năng xử lý nhiệm vụ nhiều bước của GPT-5.2 Thinking.
Tóm lại, OpenAI đã giáng một đòn mạnh mẽ trong cuộc chiến trí tuệ nhân tạo đêm qua.
Google sẽ làm gì tiếp theo?
Tham khảo:
https://x.com/skirano/status/1999182295685644366
https://x.com/emollick/status/1999185085719887978
Bài viết này được lấy từ tài khoản WeChat chính thức "New Intelligence" , do Aeneas biên tập và được đăng tải với sự cho phép của 36Kr.





