Ollama宣佈成為OpenClaw官方模型提供商:一條命令接入,支持雲端與本地模型混合調用

avatar
律動
03-16

據 1M AI News 監測,本地大模型運行工具 Ollama 今日宣佈正式成為 OpenClaw 的官方模型提供商。用戶執行 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型將與 OpenClaw 無縫協作。

Ollama 此次接入提供「Cloud + Local」混合模式,用戶可同時使用 Ollama 雲端託管的模型和本地運行的模型。OpenClaw 的引導向導會自動檢測本地已安裝的 Ollama 模型,並通過 Ollama 原生 API 支持流式傳輸和工具調用。OpenClaw 創始人 Peter Steinberger 參與了此次集成的審核工作。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論