posts

Ollama launch用法详解:Claude Code、Codex、Hermes Agent、OpenClaw、VS Code等主流工具集成一步到位,本地AI大模型多场景复用

Ollama launch用法详解:Claude Code、Codex、Hermes Agent、OpenClaw、VS Code等主流工具集成一步到位,本地AI大模型多场景复用

Ollama命令速查指南 这篇文章中把 Ollama 的命令过了一遍,中间提到了 ollama launch 这个功能,但只是带了一句。最近抽空把几个主流 Ollama integration 都试了一下,单独写一篇笔记,主要记录 Codex、Claude Code、Hermes Agent、OpenClaw、VS Code 这几个工具怎么和 Ollama 搭在一起用。

关于 ollama launch,Ollama v0.15+ 引入了这个新命令,可以用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动,不需要手动改环境变量或写配置文件。它的核心价值在于「一条命令,帮你装好、配好、启动好」,后面介绍每个工具的时候基本都会用到它。

想用Ollama本地模型联动Codex、VS Code等工具,却不懂配置?本文详解5款主流Ollama生态集成工具的实操步骤,借助ollama launch命令一键搞定配置,搭配 Ollama 使用教程 ,新手也能轻松实现本地模型与工具无缝衔接。

文章里用到的模型统一用 qwen3.5:9b(换成其他模型也可以,道理一样),本地跑需要大约 5-10GB 内存。

本地大模型API开发指南|Ollama API教程:generate与chat区别详解,全端点实操指南

Ollama HTTP API实操手册:参数详解、场景适配,快速上手调用

本地大模型API开发指南|Ollama API教程:generate与chat区别详解,全端点实操指南

调用Ollama HTTP API时,你是否分不清generate与chat的用法?不知道各端点参数怎么配置?本文整理Ollama官方所有API,逐一端点拆解用法、参数及实操示例,理清两大核心端点区别,搭配 Ollama 使用教程 ,新手也能轻松搞定API调用。

Ollama 命令速查手册:全命令参数、用法与实操指南

本地大模型必备|Ollama所有命令详解(含参数与场景)

Ollama 命令速查手册:全命令参数、用法与实操指南

Ollama使用教程 这篇文章中写的是 Ollama 的整体使用,但后来我把 ollama -h 的输出完整看了一遍,发现很多命令和参数平时根本没注意过。这篇算是补课,把每个命令的参数、用法、适用场景都过一遍。更适合当成速查手册来用。

Ollama量化全指南:3种方法+量化级别参考,普通电脑也能跑大模型

什么是Ollama量化?一文读懂模型“瘦身”技巧

Ollama量化全指南:3种方法+量化级别参考,普通电脑也能跑大模型

想在个人电脑、普通显卡上流畅部署Ollama大模型?核心就在于「量化」!作为Ollama本地部署的关键优化技术,量化能给AI模型“瘦身”,大幅降低显存占用、提升推理速度,无需专业硬件,普通人也能轻松玩转大模型,本文详细拆解量化原理、实操方法及量化级别选择,新手也能快速上手。

SOTA是什么意思?AI、大模型、深度学习中SOTA完全解读

SOTA是什么意思?AI、大模型、深度学习中SOTA完全解读

如果你刚开始接触AI(人工智能)或LLM(大语言模型),一定会频繁看到一个缩写词:SOTA。它出现在论文标题、技术博客、甚至是模型对比榜单中。那么 SOTA 到底是什么意思?“SOTA 模型”又代表什么水平?本文将全面解析 SOTA 的定义、起源、读音以及在机器学习、深度学习、大模型等领域的实际含义。

Ollama Modelfile 完全指南:从零开始创建自定义量化 AI 大模型

一文读懂Ollama Modelfile:语法+指令+实战,自定义量化GGUF模型,精准控制推理参数

Ollama Modelfile 完全指南:从零开始创建自定义量化 AI 大模型

在 Ollama 中通过 Modelfile 自定义量化模型,可以让你在 Ollama 上运行任何 GGUF 格式的模型,并精确控制量化精度、推理参数和行为模板。本文将手把手教你掌握这一核心技能。

本地部署AI大模型完全指南(最新):最低配置+工具+知识库+实战教程

本地部署AI大模型完全指南(最新):最低配置+工具+知识库+实战教程

随着 AI 技术的爆发,越来越多人希望在自己的电脑上运行大模型,而不是依赖云端 API。本地部署不仅能保护数据隐私,还能免费使用、无限调用。那么,本地部署大模型有什么用?需要什么显卡?有哪些好用的工具?本文将从零开始,为你全面梳理本地部署大模型推荐、配置要求、知识库搭建、实战教程以及最新趋势。无论你是开发者还是普通用户,都能找到适合自己的方案。

对于想本地部署 AI 大模型却不知道自己的电脑能不能跑?尤其手持 Intel Mac 的开发者,总被“高配置门槛”劝退?本文也将从内存、显存核心逻辑入手,拆解个人学习、业务部署的全配置阶梯,搭配 Ollama 工具与量化技巧,让不同设备都能流畅运行大模型。

终端命令行文件搜索工具:ripgrep(rg)完全使用手册

终端命令行文件搜索工具:ripgrep(rg)完全使用手册

在软件开发与日常运维中,代码搜索是最频繁也最容易被忽视的效率瓶颈。传统的 grep 命令虽然经典,但在大型项目中往往显得力不从心——速度慢、需要手动排除目录、输出杂乱无章。

ripgrep (rg) 作为新一代命令行搜索工具,凭借grep 快 10~300 倍的极速性能默认遵守 .gitignore 的智能过滤以及人性化的彩色输出,成为了越来越多开发者、DevOps 和开源贡献者的首选。

本文将从详尽的功能对比、性能实测数据到实战技巧,详细介绍 ripgrep 的用法以及和 grep 的区别

AI长程编程|一文搞懂什么是 Long-Horizon Coding?

AI长程编程|一文搞懂什么是 Long-Horizon Coding?

第一次听到「Long-Horizon Coding」这个词的时候,我脑子里想的是「哦,就是写很长的代码了」。后来查了下资料才发现,完全不是这么回事。这个词跟红杉资本那篇 《2026: This is AGI》 有很大关系 。他们直接把 Long-Horizon Agents(长程智能体)定义为「功能上的 AGI」——也就是 AI 终于从「聊天框里的回答机器」变成了「能自己把事情搞定的执行者」。

本文关键词:Long-Horizon Coding、长程代码生成、AI 编程智能体、SWE-bench、代码智能体基准测试、自主软件开发

CURD 程序员,该如何理解 AI 大模型中的多模态(Multimodal)?

AI 多模态学习笔记:多模态大模型排名、原理与应用

CURD 程序员,该如何理解 AI 大模型中的多模态(Multimodal)?

搞应用开发的 CURD 程序员,该如何理解多模态 AI 大模型?

最近打算认真写一点关于 AI 方面的学习笔记。本文是我整理的多模态相关的内容,不是那种底层原理——太底层的我也看不懂——只是用自己的理解记录一下大概的实现原理。如果你也是写业务代码的,对 AI 有点兴趣但又不想啃论文,这篇文章应该适合你。

Ollama 使用教程:本地 AI 大模型部署工具完全指南

本地大模型部署教程|Ollama 从入门到进阶完整笔记

Ollama 使用教程:本地 AI 大模型部署工具完全指南

想本地部署大模型,却被复杂配置、命令操作劝退?这篇Ollama全实操指南,从基础定义、多系统安装,到模型运行、量化自定义,手把手教你上手,新手也能快速实现本地大模型自由。

第一次听说 Ollama 是2025年,那时候其实没太在意,觉得大概又是某种跑模型用的轮子。但实际用了一段时间之后发现,这玩意儿确实值得写一篇笔记。

阿小信自由职业语录全集(2026.04 AI总结版)

「如果这就是最差的低谷,那也不过如此」

阿小信自由职业语录全集(2026.04 AI总结版)

写在前面(AI整理说明)

本文内容由 Kimi AI 根据阿小信(axiaoxin)公开网络资料自动整理生成,包括博客、GitHub、微博等渠道。所有语录均为阿小信本人公开发表的原话或基于原文的准确提炼,未做改编,仅按主题归类。