Tongyi Qianwen GPT-4 대형 모델이 전체 네트워크 최저 가격을 직접 돌파했습니다!
방금 알리바바는 갑자기 큰 움직임을 보이며 9개의 대형 Tongyi 모델에 대한 가격 인하를 공식 발표했습니다 .
그 중 성능은 GPT-4의 주요 모델인 Qwen-Long에 대해 벤치마킹되었습니다. API 입력 가격은 0.02위안/천 토큰에서 0.0005위안/천 토큰으로 떨어졌습니다. 즉, 1위안으로 200만 토큰을 구매할 수 있습니다. 신화사전 5개까지 》대형 모델의 가성비 측면에서 텍스트의 양은 세계 최고입니다.
좀 더 직관적인 비교——
Qwen-Long은 1천만 개의 토큰의 긴 텍스트 입력을 지원합니다. GPT-4에 비해 가격은 1/400에 불과합니다.
새로운 초대형 컵 제품도 가격 인하 목록에 포함되어 있습니다. 새로 출시된 Tongyi Qianwen 초대형 컵 Qwen-max도 API 입력 가격이 0.02위안/천 토큰까지 67% 하락했습니다.
오픈소스 측면에서는 Qwen1.5-72B, Qwen1.5-110B 등 5개 오픈소스 모델의 입력 가격도 75% 이상 하락했다.
이번 작전의 물결은 다시 한번 전체 네트워크 최저가를 돌파한 대형 모델 회사와 프로그래머 전용 618 카니발이라고 할 수 있다.
1위안 200만 토큰
구체적인 가격 인하 사항을 살펴보겠습니다.
이번 가격 인하는 상용 모델과 오픈 소스 모델을 포함해 총 9개 Tongyi Qianwen 시리즈 모델에 적용됩니다.
포함하다:
Qwen-Long의 성능은 GPT-4에 대해 벤치마킹되었습니다. API 입력 가격은 0.02위안/천 토큰에서 0.0005위안/천 토큰으로 97% 감소했습니다. 토큰은 97% 감소했습니다.
Qwen-max의 성능은 권위 있는 벤치마크 OpenCompass에서 GPT-4-turbo와 동일하며 API 입력 가격은 0.12/천 토큰에서 0.04위안/천 토큰으로 67% 감소했습니다.
대형 모델 분야에서 순위가 매겨진 Qwen1.5 시리즈 오픈 소스 모델과 관련하여 Qwen1.5-72B의 API 입력 가격은 0.02위안/천 토큰에서 0.005위안/천 토큰으로 인하되어 API 출력 가격이 75% 감소했습니다. 0.02위안/천 토큰에서 0.01위안/천 토큰으로 50% 감소했습니다.
OpenAI의 GPT 시리즈와 비교하여 가격 인하 후 Tongyi Qianwen 시리즈는 기본적으로 10% 할인된 가격으로 구매 가능하며 가격 대비 성능 비율이 뛰어납니다.
가장 큰 하락폭을 보이는 Qwen-Long을 예로 들어보겠습니다. 가격은 GPT-4의 1/400에 불과하지만 성능 지표는 열등하지 않습니다.
특히 긴 텍스트의 경우 Qwen-Long은 최대 1,000만 개의 토큰 길이로 매우 긴 상황별 대화를 지원하므로 약 1,500만 단어 또는 15,000페이지의 문서를 쉽게 처리할 수 있습니다. 동시에 출시된 문서 서비스와 함께 word, pdf, Markdown, epub, mobi 등과 같은 다양한 문서 형식의 구문 분석 및 대화도 지원할 수 있습니다.
투입 가격과 산출 가격이 동일한 대부분의 국내 제조업체와 달리 이번에 Qwen-Long의 투입 가격은 생산 가격보다 훨씬 더 하락했다는 점에 주목할 필요가 있습니다.
이에 대해 알리 관계자도 해명했다.
요즘에는 긴 텍스트(논문, 문서 등)와 함께 대형 모델에 대해 질문하는 것이 사용자의 가장 일반적인 요구 사항 중 하나가 되었기 때문에 모델 입력 호출 수가 출력 호출 수보다 더 많은 경우가 많습니다 .
통계에 따르면 실제 모델 입력 호출량은 일반적으로 출력의 약 8배입니다. 우리는 사용자가 가장 많이 사용하는 입력 토큰의 가격을 대폭 낮췄으며, 이는 기업에게 더 비용 효율적이고 포용성을 더 잘 달성할 수 있습니다.
또한 모두가 긴 텍스트를 사용하기를 바랍니다.
알리가 움직일 때, 그것은 큰 움직임이다
말하자면, 알리바바 클라우드가 업계 최저 가격을 돌파한 것은 이번이 처음이 아니다.
올해 2월 29일, Alibaba Cloud는 클라우드 제품에 대한 '미친 목요일' 이벤트를 막 완료했습니다. 모든 클라우드 제품의 가격은 20% 하락했으며 가장 높은 하락폭은 55%에 달했습니다.
정말 나 자신에게 큰 타격이었습니다.
이런 아낌없는 행보에 대한 자신감의 원천은 알리바바 클라우드가 중국 최대 퍼블릭 클라우드 벤더로서 장기적인 기술 축적과 규모 효과를 통해 완벽한 AI 인프라와 인프라 기술 우위를 구축했다는 점이다.
이런 본격적인 가격 인하 뒤에는 이런 기술적 배당이 퍼블릭 클라우드 제조사의 '킬러 트럼프 카드' 중 하나로 자리잡고 있는 대규모 모델 적용 시대가 있다.
칩 계층부터 플랫폼 계층까지 AI 인프라 수준에서 Alibaba Cloud는 매우 유연한 AI 해시레이트 스케줄링 시스템을 구축했습니다.
예를 들어 PAI는 100,000개 카드의 클러스터 확장성을 지원하며 초대형 훈련의 선형 확장 효율성은 96%에 이릅니다. 대규모 모델 학습 작업에서 동일한 효과를 달성하면 해시레이트 리소스를 50% 이상 절약할 수 있으며 성능은 세계 최고의 수준에 도달합니다.
추론 최적화 측면에서 Alibaba Cloud는 주로 세 가지 주요 기능을 제공합니다.
첫째, 고성능 최적화입니다. 시스템 수준의 추론 최적화 기술은 물론 고성능 연산자, 효율적인 추론 프레임, 컴파일 최적화 기능도 포함됩니다.
둘째, 적응형 튜닝입니다. AI 적용이 다양해짐에 따라 단일 모델이 모든 시나리오에서 최적의 성능을 유지하기는 어렵습니다. 적응형 추론 기술을 사용하면 모델이 입력 데이터의 특성에 따라 추론 기술 적용 및 컴퓨팅 리소스 선택을 동적으로 조정할 수 있습니다. 그리고 컴퓨팅 환경 유형의 제약.
셋째, 확장 가능한 배포입니다. 모델 추론 배포 리소스의 확장 및 유연성을 통해 일정 기간 내에 추론 서비스의 조류 현상을 해결할 수 있습니다.
이전에 Alibaba Cloud Intelligence Group의 수석 부사장이자 퍼블릭 클라우드 부문 사장인 Liu Weiguang은 퍼블릭 클라우드의 기술적 배당금과 규모 효과가 엄청난 비용 및 성능 이점을 가져올 것이라고 말했습니다.
이로 인해 "퍼블릭 클라우드 + API가 기업이 대규모 모델을 호출하는 주류 방법이 될 것입니다."
대형 모델 애플리케이션 시대의 주류 노선: 퍼블릭 클라우드 + API
알리바바 클라우드가 다시 한 번 대형 모델의 '가격 전쟁'을 최고조로 끌어올린 핵심 이유다.
특히 중소기업과 기업가 팀의 경우 퍼블릭 클라우드 + API는 항상 대규모 모델 애플리케이션을 위한 비용 효율적인 선택으로 간주되어 왔습니다.
오픈소스 모델이 빠르게 발전하고 있고, Llama 3로 대표되는 가장 강력한 모델이 GPT-4와 맞먹는 성능을 가지고 있다고 평가되고 있지만, 민영화된 배포는 여전히 높은 비용 문제에 직면해 있습니다.
Qwen-72B 오픈 소스 모델과 월간 1억 개의 토큰 사용량을 예로 들면 Alibaba Cloud Bailian에서 API를 직접 호출하는 데 드는 비용은 월 600위안이고 평균 민영화 배포 비용은 월 10,000위안을 초과합니다.
또한 퍼블릭 클라우드 + API 모델도 다중 모델 호출을 촉진하고 기업 수준의 데이터 보안을 제공할 수 있습니다. Alibaba Cloud를 예로 들면 Alibaba Cloud는 컴퓨팅 격리, 스토리지 격리, 네트워크 격리 및 데이터 암호화를 달성하기 위한 전용 VPC 환경을 기업에 제공할 수 있습니다. 현재 Alibaba Cloud는 대형 모델 보안과 관련된 10개 이상의 국제 및 국내 기술 표준 제정을 주도하고 이에 깊이 참여해 왔습니다.
클라우드 공급업체의 개방성은 개발자에게 더욱 풍부한 모델 및 도구 체인 선택권을 제공할 수도 있습니다. 예를 들어, Alibaba Cloud Bailian 플랫폼은 Tongyi Qianwen 외에도 Llama 시리즈, Baichuan, ChatGLM 등 수백 개의 국내외 대형 모델을 지원하며 대형 모델 애플리케이션을 위한 원스톱 개발 환경도 제공합니다. 5분 안에 모델을 개발하세요. 대규모 모델 애플리케이션과 5~10줄의 코드로 엔터프라이즈급 RAG 애플리케이션을 구축할 수 있습니다.
큐빗 싱크탱크는 '중국 AIGC 애플리케이션 파노라마 보고서'에서 AIGC 애플리케이션 제품 중 자체 구축한 수직형 대형 모델과 API 접근 기반 제품이 거의 70%를 차지한다고 언급했다.
이 데이터는 또한 측면에서 '퍼블릭 클라우드 + API' 모델의 시장 잠재력을 입증합니다. 애플리케이션 시장에서는 업무 에 대한 이해와 데이터 축적이 퍼블릭 클라우드 + API를 기반으로 애플리케이션을 만드는 것이 핵심입니다. 비용과 시작에 큰 영향을 미칩니다. 둘 다 속도 측면에서 더 현실적인 옵션입니다.
실제로 직관적인 가격 논쟁이든 AI 인프라에 대한 더 깊은 논쟁이든 반영되는 것은 대형 모델 개발의 초점이 기본 모델에서 착륙 애플리케이션으로 점차 이동하는 경우 플랫폼 제조업체는 대형 모델 사용에 대한 문턱을 어떻게 낮추는가입니다. ?, 경쟁의 열쇠가 되었습니다 .
Liu Weiguang은 다음과 같이 지적했습니다.
중국 최대의 클라우드 컴퓨팅 회사인 Alibaba Cloud는 AI 애플리케이션의 폭발적인 증가를 가속화하기 위해 이번에 주류 대형 모델 API의 입력 가격을 97% 인하했습니다.
앞으로는 대규모 모델 API 호출이 수천배 증가할 것으로 예측합니다.
요약하자면, 플랫폼 제조업체의 경우 "가격 전쟁" 뒤에는 실제로 인프라 및 기술 역량을 위한 싸움이 있고, 다른 한편으로는 전체 대형 모델 산업의 경우 애플리케이션이 계속해서 폭발적으로 증가할 수 있는지 여부가 결정됩니다. 대중화되면서 게임에 진입하기 위해서는 임계값과 운영 비용이 핵심 요소가 되었습니다.
이런 관점에서 최근의 가격 인하 추세는 좀 더 대형 모델 적용을 기대하는 개발자와 뚱뚱이들에게는 희소식이다.
어떻게 생각하나요?
이 기사는 WeChat 공개 계정 "Qubit"(ID: QbitAI) 에서 발췌되었으며 작성자: Yu Yang, 36 Krypton은 승인을 받아 게시되었습니다.





