据 1M AI News 监测,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。
Ollama 此次接入提供「Cloud + Local」混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。
Ollama宣布成为OpenClaw官方模型提供商:一条命令接入,支持云端与本地模型混合调用
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享





