这是一篇关于Ollama工具调用的详细教程。它的核心机制是让模型通过分析用户问题,去调用外部函数来获取信息,而不是凭空捏造答案。
之前写 Ollama 整体介绍 的时候,提了一嘴 tool calling,但没展开。最近在实际项目里用了几次,发现这个功能比想象中实用,单独写一篇笔记记下来。
这是一篇关于Ollama工具调用的详细教程。它的核心机制是让模型通过分析用户问题,去调用外部函数来获取信息,而不是凭空捏造答案。
之前写 Ollama 整体介绍 的时候,提了一嘴 tool calling,但没展开。最近在实际项目里用了几次,发现这个功能比想象中实用,单独写一篇笔记记下来。
在
Ollama命令速查指南
这篇文章中把 Ollama 的命令过了一遍,中间提到了 ollama launch 这个功能,但只是带了一句。最近抽空把几个主流 Ollama integration 都试了一下,单独写一篇笔记,主要记录 Codex、Claude Code、Hermes Agent、OpenClaw、VS Code 这几个工具怎么和 Ollama 搭在一起用。
关于 ollama launch,Ollama v0.15+ 引入了这个新命令,可以用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动,不需要手动改环境变量或写配置文件。它的核心价值在于「一条命令,帮你装好、配好、启动好」,后面介绍每个工具的时候基本都会用到它。
想用Ollama本地模型联动Codex、VS Code等工具,却不懂配置?本文详解5款主流Ollama生态集成工具的实操步骤,借助ollama launch命令一键搞定配置,搭配 Ollama 使用教程 ,新手也能轻松实现本地模型与工具无缝衔接。
文章里用到的模型统一用 qwen3.5:9b(换成其他模型也可以,道理一样),本地跑需要大约 5-10GB 内存。
调用Ollama HTTP API时,你是否分不清generate与chat的用法?不知道各端点参数怎么配置?本文整理Ollama官方所有API,逐一端点拆解用法、参数及实操示例,理清两大核心端点区别,搭配 Ollama 使用教程 ,新手也能轻松搞定API调用。
想在个人电脑、普通显卡上流畅部署Ollama大模型?核心就在于「量化」!作为Ollama本地部署的关键优化技术,量化能给AI模型“瘦身”,大幅降低显存占用、提升推理速度,无需专业硬件,普通人也能轻松玩转大模型,本文详细拆解量化原理、实操方法及量化级别选择,新手也能快速上手。
在 Ollama 中通过 Modelfile 自定义量化模型,可以让你在 Ollama 上运行任何 GGUF 格式的模型,并精确控制量化精度、推理参数和行为模板。本文将手把手教你掌握这一核心技能。
随着 AI 技术的爆发,越来越多人希望在自己的电脑上运行大模型,而不是依赖云端 API。本地部署不仅能保护数据隐私,还能免费使用、无限调用。那么,本地部署大模型有什么用?需要什么显卡?有哪些好用的工具?本文将从零开始,为你全面梳理本地部署大模型推荐、配置要求、知识库搭建、实战教程以及最新趋势。无论你是开发者还是普通用户,都能找到适合自己的方案。
对于想本地部署 AI 大模型却不知道自己的电脑能不能跑?尤其手持 Intel Mac 的开发者,总被“高配置门槛”劝退?本文也将从内存、显存核心逻辑入手,拆解个人学习、业务部署的全配置阶梯,搭配 Ollama 工具与量化技巧,让不同设备都能流畅运行大模型。
在 Ollama 使用教程:本地大模型部署工具完全指南 中提到过 Embeddings,但写得比较简略。这篇文章单独展开说一下,因为我发现很多人在做 RAG(检索增强生成)时卡住的点其实并不在模型本身,而是对 Embeddings 的理解不够透,导致后面检索出来的东西质量很差。本文从Ollama Embeddings嵌入向量基础概念入手,详解其用法、场景及实操步骤,破解常见踩坑点,搭配 Ollama 命令速查手册 ,新手也能轻松上手。
想本地部署大模型,却被复杂配置、命令操作劝退?这篇Ollama全实操指南,从基础定义、多系统安装,到模型运行、量化自定义,手把手教你上手,新手也能快速实现本地大模型自由。
第一次听说 Ollama 是2025年,那时候其实没太在意,觉得大概又是某种跑模型用的轮子。但实际用了一段时间之后发现,这玩意儿确实值得写一篇笔记。