在
Ollama命令速查指南
这篇文章中把 Ollama 的命令过了一遍,中间提到了 ollama launch 这个功能,但只是带了一句。最近抽空把几个主流 Ollama integration 都试了一下,单独写一篇笔记,主要记录 Codex、Claude Code、Hermes Agent、OpenClaw、VS Code 这几个工具怎么和 Ollama 搭在一起用。
关于 ollama launch,Ollama v0.15+ 引入了这个新命令,可以用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动,不需要手动改环境变量或写配置文件。它的核心价值在于「一条命令,帮你装好、配好、启动好」,后面介绍每个工具的时候基本都会用到它。
想用Ollama本地模型联动Codex、VS Code等工具,却不懂配置?本文详解5款主流Ollama生态集成工具的实操步骤,借助ollama launch命令一键搞定配置,搭配 Ollama 使用教程 ,新手也能轻松实现本地模型与工具无缝衔接。
文章里用到的模型统一用 qwen3.5:9b(换成其他模型也可以,道理一样),本地跑需要大约 5-10GB 内存。


