Google Gemini 2.0 Flash 시리즈 AI 모델 출시, 추론의 새로운 수준에 도달

이 기사는 기계로 번역되었습니다
원문 표시
GM(구글)은 어제(2월 5일) 블로그 게시물을 통해 모든 제미니(Gemini) 앱 사용자들을 초대하여 최신 제미니 2.0 Flash 앱 모델을 방문하고 2.0 Flash Thinking 추론 실험 모델을 공개했습니다. 제미니 2.0 Flash: 전면 업데이트, 전면 공개 제미니 2.0 Flash 모델은 처음 2024년 I/O 대회에서 공개되었으며, 낮은 지연 시간과 높은 성능으로 개발자 커뮤니티에서 인기를 끌었습니다. 이 모델은 대규모, 고빈도 작업에 적합하며 최대 100만 개의 토큰 컨텍스트 창을 처리할 수 있고 강력한 멀티모달 추론 기능을 보여줍니다. 제미니 2.0 Flash Thinking 모델 제미니 2.0 Flash Thinking 모델은 2.0 Flash의 속도와 성능을 기반으로 하며, 프롬프트를 일련의 단계로 분해하여 추론 능력을 높이고 더 나은 응답을 제공할 수 있습니다. 제미니 2.0 Pro 실험 버전: 최고의 프로그래밍 성능과 복잡한 프롬프트 처리 GM(구글)은 또한 제미니 2.0 Pro 실험 버전을 출시했으며, 이 모델은 프로그래밍에 능하고 복잡한 프롬프트를 처리할 수 있다고 합니다. 이 모델은 200만 개의 토큰 컨텍스트 창을 가지고 있으며 방대한 정보를 종합적으로 분석하고 이해할 수 있으며 구글 검색 및 코드 실행 등의 도구를 활용할 수 있습니다. 제미니 2.0 Flash-Lite: 가장 비용 효율적인 모델 GM(구글)은 또한 제미니 2.0 Flash-Lite 모델을 출시했으며, 이는 지금까지 가장 비용 효율적인 모델이라고 합니다. 이 모델은 저렴한 비용과 빠른 응답 속도를 유지하면서도 1.5 Flash보다 더 높은 품질을 제공합니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트