Ollama


Ollama量化全指南:3种方法+量化级别参考,普通电脑也能跑大模型

什么是Ollama量化?一文读懂模型“瘦身”技巧

Ollama量化全指南:3种方法+量化级别参考,普通电脑也能跑大模型

想在个人电脑、普通显卡上流畅部署Ollama大模型?核心就在于「量化」!作为Ollama本地部署的关键优化技术,量化能给AI模型“瘦身”,大幅降低显存占用、提升推理速度,无需专业硬件,普通人也能轻松玩转大模型,本文详细拆解量化原理、实操方法及量化级别选择,新手也能快速上手。

Ollama Modelfile 完全指南:从零开始创建自定义量化 AI 大模型

一文读懂Ollama Modelfile:语法+指令+实战,自定义量化GGUF模型,精准控制推理参数

Ollama Modelfile 完全指南:从零开始创建自定义量化 AI 大模型

在 Ollama 中通过 Modelfile 自定义量化模型,可以让你在 Ollama 上运行任何 GGUF 格式的模型,并精确控制量化精度、推理参数和行为模板。本文将手把手教你掌握这一核心技能。

本地部署AI大模型完全指南(最新):最低配置+工具+知识库+实战教程

本地部署AI大模型完全指南(最新):最低配置+工具+知识库+实战教程

随着 AI 技术的爆发,越来越多人希望在自己的电脑上运行大模型,而不是依赖云端 API。本地部署不仅能保护数据隐私,还能免费使用、无限调用。那么,本地部署大模型有什么用?需要什么显卡?有哪些好用的工具?本文将从零开始,为你全面梳理本地部署大模型推荐、配置要求、知识库搭建、实战教程以及最新趋势。无论你是开发者还是普通用户,都能找到适合自己的方案。

对于想本地部署 AI 大模型却不知道自己的电脑能不能跑?尤其手持 Intel Mac 的开发者,总被“高配置门槛”劝退?本文也将从内存、显存核心逻辑入手,拆解个人学习、业务部署的全配置阶梯,搭配 Ollama 工具与量化技巧,让不同设备都能流畅运行大模型。

Ollama 使用教程:本地 AI 大模型部署工具完全指南

本地大模型部署教程|Ollama 从入门到进阶完整笔记

Ollama 使用教程:本地 AI 大模型部署工具完全指南

想本地部署大模型,却被复杂配置、命令操作劝退?这篇Ollama全实操指南,从基础定义、多系统安装,到模型运行、量化自定义,手把手教你上手,新手也能快速实现本地大模型自由。

第一次听说 Ollama 是2025年,那时候其实没太在意,觉得大概又是某种跑模型用的轮子。但实际用了一段时间之后发现,这玩意儿确实值得写一篇笔记。