구글, 가장 빠르고 저렴한 제미니(Gemini) 3 모델인 제미니(Gemini) 3.1 플래시 라이트 출시

이 기사는 기계로 번역되었습니다
원문 표시

구글은 오늘 자사의 제미니(Gemini) 3 제품군 내에서 더 빠른 응답 속도와 낮은 운영 비용을 제공하도록 설계된 새로운 인공지능 모델인 제미니(Gemini) 3.1 플래시 라이트를 발표했습니다.

해당 모델은 Google AI Studio의 제미니(Gemini) API를 통해 개발자에게 미리 보기 버전으로 제공되고 있으며, Vertex AI를 통해 기업 고객에게도 제공되고 있습니다.

구글은 제미니(Gemini) 3.1 플래시 라이트를 제미니(Gemini) 3 시리즈 중 가장 빠르고 비용 효율적인 모델로 설명하며, 지연 시간과 비용이 중요한 대용량 워크로드를 위해 특별히 설계되었다고 밝혔습니다.

해당 모델의 가격은 입력 토큰 백만 개당 0.25달러, 출력 토큰 백만 개당 1.50달러부터 시작하며, 이는 구글의 현재 AI 모델 라인업 중 가장 저렴한 옵션 중 하나입니다.

구글이 제시한 벤치마크에 따르면, 제미니(Gemini) 3.1 Flash Lite는 제미니(Gemini) 2.5 Flash에 비해 첫 응답 토큰까지 걸리는 시간이 2.5배 빠르고, 출력 속도는 45% 더 빠르면서도 품질은 비슷하거나 더 우수합니다.

성능 벤치마크 결과, 제미니(Gemini) 3.1 Flash Lite는 다른 경량 AI 모델들과 비교해도 경쟁력 있는 성능을 보여줍니다. Arena AI 리더보드에서 1432 Elo 점수를 획득했으며, GPQA Diamond 추론 벤치마크에서 86.9%, MMMU Pro 멀티모달 벤치마크에서 76.8%의 점수를 기록했습니다.

구글은 이 모델이 번역, 콘텐츠 검토, 대규모 지침 준수와 같은 빈번한 개발자 작업을 처리하도록 설계되었으며, 인터페이스 생성, 시뮬레이션 제작, 구조화된 데이터 작업과 같은 더욱 복잡한 작업 부하도 지원한다고 밝혔습니다.

이번 릴리스에서는 AI Studio와 Vertex AI에 조정 가능한 사고 수준 기능이 도입되어 개발자가 작업의 복잡성에 따라 모델의 추론 수준을 제어할 수 있게 되었습니다. 이러한 유연성은 팀이 AI 애플리케이션을 대규모로 배포할 때 비용, 속도 및 정확성의 균형을 맞추는 데 도움이 되도록 설계되었습니다.

고지: 이 기사는 에스테파노 고메즈가 편집했습니다. 콘텐츠 제작 및 검토 과정에 대한 자세한 내용은 편집 정책을 참조하십시오.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
79
즐겨찾기에 추가
19
코멘트