Ollama가 OpenClaw의 공식 모델 제공업체로 선정되었습니다. 이제 단일 명령으로 클라우드 모델과 로컬 모델을 혼합하여 사용할 수 있습니다.

이 기사는 기계로 번역되었습니다
원문 표시

1M AI 뉴스에 따르면 , 로컬 대규모 모델 실행 도구인 Ollam이 오늘 OpenClaw의 공식 모델 제공업체가 되었다고 발표했습니다. 사용자는 `openclaw onboard --auth-choice ollama` 명령어를 실행하여 통합을 완료할 수 있으며, 모든 Ollam 모델은 OpenClaw와 원활하게 연동됩니다.

이번 Ollama 통합은 "클라우드 + 로컬" 하이브리드 모드를 제공하여 사용자가 클라우드 호스팅 모델과 로컬에서 실행되는 모델을 동시에 활용할 수 있도록 합니다. OpenClaw의 마법사는 로컬에 설치된 Ollama 모델을 자동으로 감지하고 Ollama의 네이티브 API를 통해 스트리밍 및 도구 호출을 지원합니다. OpenClaw의 창립자인 피터 스타인버거(Peter Steinberger)가 이번 통합 검토 과정에 참여했습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트