Vượt qua mức giá thấp nhất trên toàn mạng, mẫu lớn GPT-4 của Tongyi Qianwen đã giảm 97% và 1 nhân dân tệ có thể mua được 2 triệu token.

avatar
36kr
05-21
Bài viết này được dịch máy
Xem bản gốc

Mẫu lớn Tongyi Qianwen GPT-4 trực tiếp phá giá thấp nhất trên toàn mạng!

Vừa rồi, Alibaba bất ngờ có động thái lớn khi chính thức công bố giảm giá cho 9 mẫu Tongyi cỡ lớn .

Trong đó, hiệu suất được so sánh với mô hình chính Qwen-Long của GPT-4. Giá đầu vào API đã giảm từ 0,02 nhân dân tệ/nghìn token xuống 0,0005 nhân dân tệ/nghìn token, tức là 1 nhân dân tệ có thể mua được 2 triệu token, tương đương. tới 5 Từ điển Tân Hoa Xã 》Số lượng văn bản là tốt nhất trên thế giới về hiệu quả chi phí đối với các mô hình lớn.

Một sự so sánh trực quan hơn——

Qwen-Long hỗ trợ nhập văn bản dài 10 triệu token. So với GPT-4, giá chỉ bằng 1/400.

Các sản phẩm cốc siêu lớn mới cũng nằm trong danh sách giảm giá: cốc siêu lớn Tongyi Qianwen Qwen-max mới ra mắt cũng đã chứng kiến ​​giá đầu vào API giảm 67%, xuống mức thấp nhất là 0,02 nhân dân tệ/nghìn token.

Về mã nguồn mở, giá đầu vào của 5 mô hình mã nguồn mở gồm Qwen1.5-72B và Qwen1.5-110B cũng đã giảm lần lượt hơn 75%.

Làn sóng hoạt động này một lần nữa phá vỡ mức giá thấp nhất trên toàn mạng. Có thể nói đây là lễ hội 618 dành riêng cho các công ty mô hình và lập trình viên lớn.

1 nhân dân tệ và 2 triệu token

Hãy cùng xem các mức giảm giá cụ thể:

Việc giảm giá lần bao gồm tổng cộng 9 mẫu sê-ri Tongyi Qianwen, bao gồm cả mẫu thương mại và mẫu mã mã nguồn mở .

bao gồm:

Hiệu suất của Qwen-Long được so sánh với GPT-4. Giá đầu vào API giảm từ 0,02 nhân dân tệ/nghìn token xuống 0,0005 nhân dân tệ/nghìn token, giảm 97%; giá đầu ra API giảm từ 0,02 nhân dân tệ/nghìn token xuống 0,002 nhân dân tệ/nghìn. mã thông báo, giảm 97%.

Hiệu suất của Qwen-max ngang bằng với GPT-4-turbo trên điểm chuẩn có thẩm quyền OpenCompass và giá đầu vào API giảm từ 0,12/ngàn mã thông báo xuống 0,04 nhân dân tệ/nghìn mã thông báo, giảm 67%.

Về các mô hình mã nguồn mở sê-ri Qwen1.5 được xếp hạng trong đấu trường mô hình lớn, giá đầu vào API của Qwen1.5-72B đã giảm từ 0,02 nhân dân tệ/nghìn token xuống 0,005 nhân dân tệ/nghìn token, giảm 75% giá đầu ra API; giảm từ 0,02 nhân dân tệ/nghìn token.

So với sê-ri GPT của OpenAI, sê-ri Tongyi Qianwen sau khi giảm giá về cơ bản được mua với mức chiết khấu 10% và tỷ lệ giá/hiệu suất rất tuyệt vời.

Lấy Qwen-Long, hãng có mức giảm lớn nhất, làm ví dụ. Giá chỉ bằng 1/400 GPT-4 nhưng chỉ báo hiệu suất của nó không hề thua kém.

Đặc biệt về mặt văn bản dài, Qwen-Long hỗ trợ các cuộc hội thoại theo ngữ cảnh cực dài với độ dài tối đa 10 triệu mã thông báo, nghĩa là nó có thể dễ dàng xử lý các tài liệu khoảng 15 triệu từ hoặc 15.000 trang. Cùng với dịch vụ tài liệu ra mắt đồng bộ, nó cũng có thể hỗ trợ phân tích cú pháp và đối thoại ở nhiều định dạng tài liệu như word, pdf, Markdown, epub và mobi.

Điều đáng chú ý là không giống như hầu hết các nhà sản xuất trong nước có giá đầu vào và đầu ra như nhau, lần giá đầu vào của Qwen-Long thậm chí còn giảm nhiều hơn giá đầu ra.

Về vấn đề này, chính thức Ali cũng đưa ra lời giải thích:

Ngày nay, việc người dùng đặt câu hỏi cho các mô hình lớn kết hợp với các văn bản dài (giấy tờ, tài liệu, v.v.) đã trở thành một trong những nhu cầu phổ biến nhất của người dùng nên số lượng lệnh gọi đầu vào mô hình thường lớn hơn số lượng lệnh gọi đầu ra .

Theo thống kê, số lượng lệnh gọi đầu vào mô hình thực tế thường gấp khoảng 8 lần so với đầu ra. Chúng tôi đã giảm đáng kể giá của mã thông báo đầu vào được người dùng sử dụng nhiều nhất, điều này tiết kiệm chi phí hơn cho doanh nghiệp và có thể đạt được tính toàn diện tốt hơn.

Tôi cũng hy vọng rằng mọi người sẽ sử dụng văn bản dài.

Ali thực hiện một bước đi lớn ngay khi anh ấy thực hiện một bước đi

Nhắc mới nhớ, đây không phải là lần đầu tiên Alibaba Cloud vượt qua mức giá thấp nhất trong ngành.

Mới ngày 29/2 năm nay, Alibaba Cloud vừa hoàn thành “Thứ Năm điên rồ” cho các sản phẩm trên nền tảng đám mây: giá tất cả các sản phẩm trên nền tảng đám mây đều giảm 20%, mức giảm cao nhất lên tới 55%.

Đó thực sự là một cú sốc lớn đối với bản thân tôi.

Nguồn tin cho động thái hào phóng như vậy là Alibaba Cloud, với tư cách là nhà cung cấp đám mây công cộng lớn nhất Trung Quốc, đã xây dựng được cơ sở hạ tầng AI hoàn chỉnh và lợi thế công nghệ Infra thông qua tích lũy công nghệ lâu dài và hiệu ứng quy mô.

Đằng sau việc giảm giá chân thành này là kỷ nguyên của các ứng dụng mô hình quy mô lớn. Loại cổ tức kỹ thuật này đang trở thành một trong những “con át chủ bài sát thủ” của các nhà sản xuất đám mây công cộng.

Ở cấp độ cơ sở hạ tầng AI, từ lớp chip đến lớp nền tảng, Alibaba Cloud đã xây dựng một hệ thống lập kế hoạch tỷ lệ băm AI có tính linh hoạt cao.

Ví dụ: PAI hỗ trợ mở rộng cụm 100.000 thẻ và hiệu suất mở rộng tuyến tính của quá trình đào tạo quy mô cực lớn đạt 96%. Trong nhiệm vụ đào tạo mô hình lớn, việc đạt được hiệu quả tương tự có thể tiết kiệm hơn 50% tài nguyên tỷ lệ băm và hiệu suất đạt mức hàng đầu thế giới.

Về mặt tối ưu hóa suy luận, Alibaba Cloud chủ yếu cung cấp ba khả năng chính:

Đầu tiên, tối ưu hóa hiệu suất cao. Bao gồm công nghệ tối ưu hóa suy luận cấp hệ thống, cũng như các toán tử hiệu suất cao, khung suy luận hiệu quả và khả năng tối ưu hóa biên dịch.

Thứ hai, điều chỉnh thích ứng. Với sự đa dạng hóa của các ứng dụng AI, rất khó để một mô hình duy nhất có thể duy trì hiệu suất tối ưu trong mọi tình huống. Công nghệ suy luận thích ứng cho phép mô hình điều chỉnh linh hoạt việc ứng dụng công nghệ suy luận và lựa chọn tài nguyên máy tính dựa trên đặc điểm của dữ liệu đầu vào. và các ràng buộc của loại hoàn cảnh tính toán.

Thứ ba, triển khai mở rộng. Mở rộng và tính linh hoạt của tài nguyên triển khai suy luận mô hình có thể giải quyết hiện tượng thủy triều của các dịch vụ suy luận trong một khoảng thời gian nhất định.

Trước đây, Liu Weiguang, phó chủ tịch cấp cao của Tập đoàn trí tuệ đám mây Alibaba và chủ tịch Bộ phận đám mây công cộng, cũng cho biết lợi ích kỹ thuật và hiệu ứng quy mô của đám mây công cộng sẽ mang lại lợi thế lớn về chi phí và hiệu suất.

Điều này sẽ thúc đẩy"public cloud + API trở thành cách chủ đạo để các doanh nghiệp gọi các mô hình lớn".

Con đường chủ đạo trong kỷ nguyên ứng dụng mô hình lớn: public cloud + API

Đây chính là nguyên nhân cốt lõi khiến Alibaba Cloud một lần nữa đẩy “cuộc chiến giá cả” của các mẫu xe cỡ lớn lên đến đỉnh điểm.

Đặc biệt đối với các doanh nghiệp vừa và nhỏ và đội ngũ khởi nghiệp, public cloud + API luôn được coi là sự lựa chọn tiết kiệm chi phí cho các ứng dụng mô hình quy mô lớn:

Mặc dù các mô hình mã nguồn mở đang phát triển nhanh chóng và các mô hình mạnh nhất do Llama 3 đại diện được cho rằng là có hiệu suất tương đương với GPT-4, việc triển khai sở hữu tư nhân vẫn phải đối mặt với vấn đề chi phí cao.

Lấy mô hình mã nguồn mở Qwen-72B và 100 triệu mã thông báo sử dụng mỗi tháng làm ví dụ, việc gọi trực tiếp API trên Alibaba Cloud Bailian chỉ tốn 600 nhân dân tệ mỗi tháng và chi phí triển khai sở hữu tư nhân trung bình vượt quá 10.000 nhân dân tệ mỗi tháng.

Ngoài ra, mô hình đám mây công cộng + API cũng tạo điều kiện cho các cuộc gọi đa mô hình và có thể cung cấp bảo mật dữ liệu cấp doanh nghiệp. Lấy Alibaba Cloud làm ví dụ, Alibaba Cloud có thể cung cấp cho doanh nghiệp hoàn cảnh VPC chuyên dụng để đạt được sự cách ly về máy tính, cách ly lưu trữ, cách ly mạng và crypto dữ liệu . Hiện tại, Alibaba Cloud đã dẫn đầu và tham gia độ sâu vào việc xây dựng hơn 10 tiêu chuẩn kỹ thuật trong nước và quốc tế liên quan đến bảo mật mô hình lớn.

Sự cởi mở của các nhà cung cấp đám mây cũng có thể cung cấp cho các nhà phát triển những lựa chọn Chuỗi công cụ và mô hình phong phú hơn. Ví dụ: ngoài Tongyi Qianwen, nền tảng Alibaba Cloud Bailian còn hỗ trợ hàng trăm mô hình lớn trong và ngoài nước như sê-ri Llama, Baichuan và ChatGLM. Nó cũng cung cấp hoàn cảnh phát triển một cửa cho các ứng dụng mô hình lớn, có thể. phát triển mô hình trong 5 phút Bạn có thể xây dựng ứng dụng RAG cấp doanh nghiệp với ứng dụng mô hình lớn và 5 đến 10 dòng mã.

Qubit Think Tank đã đề cập trong "Báo cáo toàn cảnh ứng dụng AIGC Trung Quốc" rằng trong số các sản phẩm ứng dụng AIGC, các sản phẩm dựa trên mô hình lớn dọc tự xây dựng và quyền truy cập API chiếm gần 70%.

Dữ liệu này cũng chứng minh tiềm năng thị trường của mô hình "đám mây công cộng + API" từ phía bên: trong thị trường ứng dụng, sự hiểu biết về việc kinh doanh và tích lũy dữ liệu là chìa khóa để phá vỡ tình trạng này. tác động lớn đến chi phí và khởi động. Cả hai đều là những lựa chọn thực tế hơn về mặt tốc độ.

Trên thực tế, cho dù đó là tranh chấp về giá trực quan hay khối lượng cơ sở hạ tầng AI sâu hơn, điều được phản ánh là khi trọng tâm phát triển mô hình lớn dần chuyển từ mô hình cơ bản sang ứng dụng đích, làm cách nào để các nhà sản xuất nền tảng hạ thấp ngưỡng sử dụng mô hình lớn? , đã trở thành chìa khóa để cạnh tranh .

Lưu Vệ Quang chỉ ra:

Là công ty điện toán đám mây lớn nhất Trung Quốc, Alibaba Cloud lần đã giảm 97% giá đầu vào của các API mô hình lớn chính thống với hy vọng thúc đẩy sự bùng nổ của các ứng dụng AI.

Chúng tôi dự đoán rằng số lượng lệnh gọi đến API mô hình lớn sẽ tăng trưởng hàng chục nghìn lần trong tương lai.

Tóm lại, một mặt, đối với các nhà sản xuất nền tảng, đằng sau “cuộc chiến giá cả” thực chất là cuộc chiến về cơ sở hạ tầng và năng lực kỹ thuật, mặt khác, đối với toàn bộ ngành công nghiệp mô hình lớn, liệu các ứng dụng có thể tiếp tục bùng nổ và tiến xa hơn hay không; phổ biến, tham gia vào trò chơi Ngưỡng và chi phí vận hành đã trở thành yếu tố then chốt.

Từ quan điểm này, xu hướng giảm giá gần đây là tin tốt cho các nhà phát triển và những người bạn béo đang mong chờ những ứng dụng mô hình lớn hơn.

Bạn nghĩ sao?

Bài viết này xuất phát từ tài khoản công khai WeChat "Qubit" (ID: QbitAI) , tác giả: Yuyang, 36 Krypton được xuất bản với sự cho phép.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận