[Tweet dài] Báo cáo tình trạng mô hình lớn năm 2025: Tiến độ, những trở ngại và triển vọng tương lai

Bài viết này được dịch máy
Xem bản gốc

Tóm tắt Chainfeeds:

Báo cáo xem xét một cách có hệ thống những tiến bộ quan trọng của các mô hình quy mô lớn về khả năng suy luận, lộ trình kiến ​​trúc, hệ sinh thái mã mã nguồn mở và triển khai kỹ thuật.

Nguồn bài viết:

https://x.com/rasbt/status/2006015301717028989

Tác giả bài viết:

Sebastian Raschka


Quan điểm ​​:

Sebastian Raschka: Dưới đây là một số "bất ngờ" đáng chú ý nhất của năm 2025 mà tôi cho rằng sẽ xảy ra: Một số mô hình suy luận đã đạt được hiệu suất cấp độ vàng trong các cuộc thi toán học lớn (bao gồm một mô hình chưa được đặt tên từ OpenAI, Gemini Deep Think và DeepSeekMath-V2 từ tỷ trọng mã nguồn mở ). Tôi không ngạc nhiên khi điều này sẽ xảy ra, nhưng tôi ngạc nhiên là nó xảy ra vào năm 2025, chứ không phải năm 2026 như tôi đã dự đoán ban đầu. Llama 4 (hoặc toàn bộ sê-ri Llama) gần như đã không còn được ưa chuộng trong cộng đồng tỷ trọng mã nguồn mở , trong khi Qwen đã vượt qua Llama về mức độ phổ biến (được đo bằng số lượt tải xuống và số lượng mô hình phái sinh, dữ liệu từ dự án ATOM của Nathan Lambert). Mistral AI đã áp dụng kiến ​​trúc DeepSeek V3 trong mẫu sản phẩm chủ lực mới nhất của mình, Mistral 3, dự kiến ​​ra mắt vào tháng 12 năm 2025. Bên cạnh Qwen3 và DeepSeek R1/V3.2, số lượng các đối thủ cạnh tranh tiên tiến mã nguồn mở đang tăng lên đáng kể, bao gồm Kimi, GLM, MiniMax và Yi. Các kiến ​​trúc lai hiệu quả và tiết kiệm chi phí hơn đã trở thành ưu tiên hàng đầu đối với các phòng thí nghiệm hàng đầu (như Qwen3-Next, Kimi Linear và Nemotron 3), chứ không còn chỉ được các phòng thí nghiệm nhỏ hơn nghiên cứu. OpenAI đã phát hành một mô hình tỷ trọng mã nguồn mở (gpt-oss), mà tôi đã viết riêng về nó hồi đầu năm nay. MCP (đã gia nhập Linux Foundation) nhanh chóng trở thành tiêu chuẩn thực tế cho việc truy cập công cụ và dữ liệu trong các hệ thống LLM dựa trên tác nhân. Ban đầu tôi nghĩ hệ sinh thái này sẽ vẫn bị phân mảnh ít nhất cho đến năm 2026. Một vài dự đoán cho năm 2026: Chúng ta có thể sẽ chứng kiến ​​sự lan tỏa rộng rãi các mô hình hướng đến người tiêu dùng và toàn ngành về suy luận chi phí thấp, đáng tin cậy và độ trễ thấp, trong đó Gemini Diffusion có khả năng dẫn đầu. Cộng đồng tỷ trọng mã nguồn mở sẽ dần dần áp dụng nhiều LLM dựa trên tác nhân với khả năng gọi công cụ gốc. RLVR sẽ mở rộng từ toán học và lập trình sang nhiều lĩnh vực hơn, chẳng hạn như hóa học và sinh học. RAG truyền thống sẽ dần dần không còn là giải pháp mặc định cho việc truy xuất tài liệu. Các nhà phát triển sẽ dựa nhiều hơn vào khả năng xử lý ngữ cảnh dài mạnh mẽ hơn, đặc biệt là khi các mô hình nhỏ mạnh mẽ hơn bối cảnh. Những cải tiến lượng lớn về hiệu suất và điểm chuẩn sẽ đến từ việc tối ưu hóa Chuỗi và mở rộng thời gian suy luận, chứ không phải từ quá trình huấn luyện hoặc bản thân mô hình. Những tiến bộ của mô hình sẽ giống như một chiến thắng của kỹ thuật hệ thống hơn là một bước đột phá ở một điểm kiến ​​trúc duy nhất. [Văn bản gốc bằng tiếng Anh]

Nguồn nội dung

https://chainfeeds.substack.com

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận