Ollama
快速上手大型语言模型。
macOS
Windows
Linux
curl -fsSL https://ollama.com/install.sh | sh
Docker
官方 Ollama Docker 镜像 ollama/ollama 可在 Docker Hub 上获取。
开发库
社区
快速开始
要运行并与 Llama 3.2 进行对话:
ollama run llama3.2
模型库
Ollama 支持 ollama.com/library 上提供的模型列表
以下是一些可下载的示例模型:
| 模型 | 参数量 | 大小 | 下载命令 |
|---|---|---|---|
| Gemma 3 | 1B | 815MB | ollama run gemma3:1b |
| Gemma 3 | 4B | 3.3GB | ollama run gemma3 |
| Gemma 3 | 12B | 8.1GB | ollama run gemma3:12b |
| Gemma 3 | 27B | 17GB | ollama run gemma3:27b |
| QwQ | 32B | 20GB | ollama run qwq |
| DeepSeek-R1 | 7B | 4.7GB | ollama run deepseek-r1 |
| DeepSeek-R1 | 671B | 404GB | ollama run deepseek-r1:671b |
| Llama 4 | 109B | 67GB | ollama run llama4:scout |
| Llama 4 | 400B | 245GB | ollama run llama4:maverick |
| Llama 3.3 | 70B | 43GB | ollama run llama3.3 |
| Llama 3.2 | 3B | 2.0GB | ollama run llama3.2 |
| Llama 3.2 | 1B | 1.3GB | ollama run llama3.2:1b |
| Llama 3.2 Vision | 11B | 7.9GB | ollama run llama3.2-vision |
| Llama 3.2 Vision | 90B | 55GB | ollama run llama3.2-vision:90b |
| Llama 3.1 | 8B | 4.7GB | ollama run llama3.1 |
| Llama 3.1 | 405B | 231GB | ollama run llama3.1:405b |
| Phi 4 | 14B | 9.1GB | ollama run phi4 |
| Phi 4 Mini | 3.8B | 2.5GB | ollama run phi4-mini |
| Mistral | 7B | 4.1GB | ollama run mistral |
| Moondream 2 | 1.4B | 829MB | ollama run moondream |
| Neural Chat | 7B | 4.1GB | ollama run neural-chat |
| Starling | 7B | 4.1GB | ollama run starling-lm |
| Code Llama | 7B | 3.8GB | ollama run codellama |
| Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
| LLaVA | 7B | 4.5GB | ollama run llava |
| Granite-3.3 | 8B | 4.9GB | ollama run granite3.3 |
注意: 运行 7B 模型至少需要 8 GB 内存,运行 13B 模型需要 16 GB 内存,运行 33B 模型需要 32 GB 内存。
自定义模型
从 GGUF 导入
Ollama 支持在 Modelfile 中导入 GGUF 模型:
-
创建名为
Modelfile的文件,使用FROM指令指定要导入的模型的本地文件路径。FROM ./vicuna-33b.Q4_0.gguf -
在 Ollama 中创建模型
ollama create example -f Modelfile -
运行模型
ollama run example
从 Safetensors 导入
有关导入模型的更多信息,请参阅导入指南。
自定义提示词
可以使用提示词自定义 Ollama 库中的模型。例如,要自定义 llama3.2 模型:
ollama pull llama3.2
创建一个 `Modelfile`:
FROM llama3.2
# 设置温度为 1(数值越高越有创意,数值越低越连贯)
PARAMETER temperature 1
# 设置系统消息
SYSTEM """
你是《超级马里奥兄弟》中的马里奥。请以马里奥助手的身份回答,仅限马里奥的角色。
"""
接下来,创建并运行模型:
ollama create mario -f ./Modelfile
ollama run mario
>>> 你好
你好!我是你的朋友马里奥。
有关使用 Modelfile 的更多信息,请参阅 [Modelfile](docs/modelfile.md) 文档。
## 命令行参考
### 创建模型
`ollama create` 用于从 Modelfile 创建模型。
```shell
ollama create mymodel -f ./Modelfile
拉取模型
ollama pull llama3.2
此命令也可用于更新本地模型。只会拉取差异部分。
删除模型
ollama rm llama3.2
复制模型
ollama cp llama3.2 my-model
多行输入
对于多行输入,可以使用 """ 包装文本:
"""你好, ... 世界! ... """ 我是一个基础程序,用于向控制台打印著名的"Hello, world!"消息。
多模态模型
ollama run llava "这张图片里有什么? /Users/jmorgan/Desktop/smile.png"
输出:图像显示了一个黄色的笑脸,这可能是图片的中心焦点。
将提示词作为参数传递
ollama run llama3.2 "总结这个文件:$(cat README.md)"
输出:Ollama 是一个轻量级、可扩展的框架,用于在本地机器上构建和运行语言模型。它提供了一个简单的 API 来创建、运行和管理模型,以及一个预构建模型库,可以轻松在各种应用程序中使用。
显示模型信息
ollama show llama3.2
列出计算机上的模型
ollama list
列出当前加载的模型
ollama ps
停止当前运行的模型
ollama stop llama3.2
启动 Ollama
当你想启动 ollama 而不运行桌面应用程序时,使用 ollama serve。
构建
请参阅开发者指南
运行本地构建
接下来,启动服务器:
./ollama serve
最后,在单独的终端中运行模型:
./ollama run llama3.2
REST API
Ollama 提供用于运行和管理模型的 REST API。
生成响应
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt":"为什么天空是蓝色的?"
}'
与模型对话
curl http://localhost:11434/api/chat -d '{
"model": "llama3.2",
"messages": [
{ "role": "user", "content": "为什么天空是蓝色的?" }
]
}'
所有端点的信息请参阅 API 文档。
社区集成
Web 和桌面应用
-
LLM-X(渐进式 Web 应用)
-
IntelliBar(macOS AI 助手)
-
Jirapt(Jira 集成,用于生成问题、任务、史诗)
-
ojira(Jira Chrome 插件,轻松为任务生成描述)
-
QA-Pilot(交互式聊天工具,可利用 Ollama 模型快速理解和导航 GitHub 代码仓库)
-
ChatOllama(基于 Ollama 的开源聊天机器人,带知识库)
-
CRAG Ollama Chat(带纠错检索增强生成的简单 Web 搜索)
-
RAGFlow(基于深度文档理解的开源检索增强生成引擎)
-
StreamDeploy(LLM 应用脚手架)
-
chat(团队聊天 Web 应用)
-
Ollama RAG 聊天机器人(使用 Ollama 和 RAG 与多个 PDF 进行本地聊天)
-
BrainSoup(灵活的原生客户端,支持 RAG 和多智能体自动化)
-
macai(Ollama、ChatGPT 和其他兼容 API 后端的 macOS 客户端)
-
RWKV-Runner(RWKV 离线 LLM 部署工具,也可用作 ChatGPT 和 Ollama 的客户端)
-
Ollama Grid Search(评估和比较模型的应用)
-
Olpaka(用户友好的 Ollama Flutter Web 应用)
-
Casibase(开源 AI 知识库和对话系统,结合最新的 RAG、SSO、Ollama 支持和多种大型语言模型)
-
OllamaSpring(macOS Ollama 客户端)
-
LLocal.in(易于使用的 Ollama Electron 桌面客户端)
-
Shinkai Desktop(使用 Ollama + 文件 + RAG 两键安装本地 AI)
-
AiLama(Discord 用户应用,允许在 Discord 任何地方与 Ollama 交互)
-
Ollama with Google Mesop(Mesop 聊天客户端的 Ollama 实现)
-
R2R(开源 RAG 引擎)
-
Ollama-Kis(简单易用的 GUI,带有驾驶教育自定义 LLM 示例)
-
OpenGPA(开源离线优先企业智能体应用)
-
Painting Droid(带 AI 集成的绘画应用)
-
Kerlig AI(macOS AI 写作助手)
-
Sidellama(基于浏览器的 LLM 客户端)
-
LLMStack(无代码多智能体框架,用于构建 LLM 智能体和工作流)
-
BoltAI for Mac(Mac AI 聊天客户端)
-
Harbor(以 Ollama 为默认后端的容器化 LLM 工具包)
-
PyGPT(适用于 Linux、Windows 和 Mac 的 AI 桌面助手)
-
Alpaca(使用 GTK4 和 Adwaita 制作的 Linux 和 macOS Ollama 客户端应用程序)
-
AutoGPT(AutoGPT Ollama 集成)
-
Go-CREW(基于 Golang 的强大离线 RAG 系统)
-
PartCAD(使用 OpenSCAD 和 CadQuery 进行 CAD 模型生成)
-
Ollama4j Web UI - 基于 Java 的 Ollama Web 界面,使用 Vaadin、Spring Boot 和 Ollama4j 构建
-
PyOllaMx - 能够与 Ollama 和 Apple MLX 模型聊天的 macOS 应用程序
-
Cline - 原名 Claude Dev,是用于多文件/整个代码库编程的 VSCode 扩展
-
Cherry Studio(支持 Ollama 的桌面客户端)
-
ConfiChat(轻量级、独立、多平台、注重隐私的 LLM 聊天界面,支持可选加密)
-
Archyve(支持 RAG 的文档库)
-
crewAI with Mesop(使用 Ollama 运行 crewAI 的 Mesop Web 界面)
-
Tkinter-based client(基于 Python tkinter 的 Ollama 客户端)
-
LLMChat(注重隐私、100% 本地化、直观的一体化聊天界面)
-
Local Multimodal AI Chat(基于 Ollama 的 LLM 聊天,支持多种功能,包括 PDF RAG、语音聊天、基于图像的交互以及与 OpenAI 的集成)
-
ARGO(在 Mac/Windows/Linux 上本地下载和运行 Ollama 及 Huggingface 模型,支持 RAG)
-
OrionChat - OrionChat 是一个与不同 AI 提供商对话的 Web 界面
-
G1(使用提示策略改进 LLM 推理的原型,通过类似 o1 的推理链实现)
-
Web management(Web 管理页面)
-
Promptery(Ollama 桌面客户端)
-
Ollama App(现代化且易于使用的多平台 Ollama 客户端)
-
chat-ollama(Ollama 的 React Native 客户端)
-
SpaceLlama(Firefox 和 Chrome 扩展,可在侧边栏中使用 Ollama 快速总结网页)
-
YouLama(用于快速总结任何 YouTube 视频的 Web 应用,同时支持 Invidious)
-
DualMind(实验性应用,允许两个模型在终端或 Web 界面中相互对话)
-
ollamarama-matrix(适用于 Matrix 聊天协议的 Ollama 聊天机器人)
-
ollama-chat-app(基于 Flutter 的聊天应用)
-
Perfect Memory AI(根据您在屏幕上看到的、听到的和在会议中说过的内容进行个性化的生产力 AI 助手)
-
Hexabot(对话式 AI 构建器)
-
Reddit Rate(使用加权求和搜索和评估 Reddit 主题)
-
OpenTalkGpt(Chrome 扩展,用于管理 Ollama 支持的开源模型、创建自定义模型,并通过用户友好的界面与模型聊天)
-
VT(极简多模态 AI 聊天应用,支持动态对话路由。通过 Ollama 支持本地模型)
-
Nosia(基于 Ollama 的易于安装和使用的 RAG 平台)
-
Witsy(适用于 Mac/Windows/Linux 的 AI 桌面应用程序)
-
Abbey(可配置的 AI 界面服务器,支持笔记本、文档存储和 YouTube 支持)
-
Minima(本地或完全本地化工作流程的 RAG)
-
aidful-ollama-model-delete(简化模型清理的用户界面)
-
Perplexica(AI 驱动的搜索引擎,Perplexity AI 的开源替代品)
-
Ollama Chat WebUI for Docker(支持本地 Docker 部署的轻量级 Ollama WebUI)
-
AI Toolkit for Visual Studio Code(微软官方 VSCode 扩展,支持与 Ollama 聊天、测试、评估模型,并在 AI 应用程序中使用)
-
MinimalNextOllamaChat(用于聊天和模型控制的极简 Web 界面)
-
Chipper 面向修补者的 AI 界面(Ollama、Haystack RAG、Python)
-
ChibiChat(基于 Kotlin 的 Android 应用,用于与 Ollama 和 Koboldcpp API 端点聊天)
-
LocalLLM(运行 Ollama 模型的极简 Web 应用,带有图形界面)
-
Ollamazing(运行 Ollama 模型的 Web 扩展)
-
OpenDeepResearcher-via-searxng(支持 Ollama 本地运行的深度研究等效端点)
-
AntSK(开箱即用且适应性强的 RAG 聊天机器人)
-
MaxKB(即用型且灵活的 RAG 聊天机器人)
-
yla(用于自由与自定义模型交互的 Web 界面)
-
LangBot(基于 LLM 的即时消息机器人平台,支持代理、RAG 功能,支持多个平台)
-
1Panel(基于 Web 的 Linux 服务器管理工具)
-
AstrBot(用户友好的基于 LLM 的多平台聊天机器人,带有 WebUI,支持 RAG、LLM 代理和插件集成)
-
Reins(轻松调整参数、为每个聊天定制系统提示,并通过推理模型支持增强您的 AI 实验)
-
Flufy(用于与 Ollama API 交互的美观聊天界面。使用 React、TypeScript 和 Material-UI 构建)
-
Ellama(与 Ollama 实例聊天的友好原生应用)
-
screenpipe 构建由您的屏幕历史记录驱动的代理
-
Writeopia(集成 Ollama 的文本编辑器)
-
AppFlowy(支持 Ollama 的 AI 协作工作空间,跨平台且可自托管)
-
Lumina(用于与 Ollama 服务器交互的轻量级、极简 React.js 前端)
-
Tiny Notepad(轻量级、类似记事本的界面,用于与 PyPI 上可用的 Ollama 聊天)
-
macLlama (macOS native)(用于与 Ollama 模型交互的原生 macOS GUI 应用程序,具有聊天界面)
云平台
终端工具
- oterm
- Ellama Emacs client
- Emacs client
- neollama 在 Neovim 中与模型交互的 UI 客户端
- gen.nvim
- ollama.nvim
- ollero.nvim
- ollama-chat.nvim
- ogpt.nvim
- gptel Emacs client
- Oatmeal
- cmdh
- ooo
- shell-pilot(在 Linux 或 macOS 上通过纯 shell 脚本与模型交互)
- tenere
- llm-ollama 适用于 Datasette 的 LLM CLI工具
- typechat-cli
- ShellOracle
- tlm
- podman-ollama
- gollama
- ParLlama
- Ollama eBook Summary
- Ollama Mixture of Experts (MOE) in 50 lines of code
- vim-intelligence-bridge Ollama 与 Vim 编辑器的简单交互
- x-cmd ollama
- bb7
- SwollamaCLI 与 Swollama Swift 包一起提供。演示
- aichat 一体化 LLM CLI 工具,具有 Shell 助手、Chat-REPL、RAG、AI 工具和代理功能,支持 OpenAI、Claude、Gemini、Ollama、Groq 等更多服务
- PowershAI 将 AI 带到 Windows 终端的 PowerShell 模块,包括对 Ollama 的支持
- DeepShell 您的自托管 AI 助手。交互式 Shell、文件和文件夹分析
- orbiton 支持 Ollama 标签补全的免配置文本编辑器和 IDE
- orca-cli Ollama 注册表 CLI 应用程序 - 在终端中浏览、拉取和下载来自 Ollama 注册表的模型
- GGUF-to-Ollama - 轻松将 GGUF 导入 Ollama(多平台)
- AWS-Strands-With-Ollama - 使用 Ollama 的 AWS Strands 代理示例
Apple Vision Pro
数据库
- pgai - PostgreSQL 作为向量数据库(使用 pgvector 从 Ollama 模型创建和搜索嵌入)
- MindsDB(将 Ollama 模型与近 200 个数据平台和应用程序连接)
- chromem-go 及其 示例
- Kangaroo(用于流行数据库的 AI 驱动 SQL 客户端和管理工具)
包管理器
编程库
- LangChain 和 LangChain.js,包含示例
- Firebase Genkit
- crewAI
- Yacana(用户友好的多智能体框架,用于头脑风暴和执行预定义流程,内置工具集成)
- Spring AI,包含参考文档和示例
- LangChainGo,包含示例
- LangChain4j,包含示例
- LangChainRust,包含示例
- LangChain for .NET,包含示例
- LLPhant
- LlamaIndex 和 LlamaIndexTS
- LiteLLM
- OllamaFarm for Go
- OllamaSharp for .NET
- Ollama for Ruby
- Ollama-rs for Rust
- Ollama-hpp for C++
- Ollama4j for Java
- ModelFusion TypeScript 库
- OllamaKit for Swift
- Ollama for Dart
- Ollama for Laravel
- LangChainDart
- Semantic Kernel - Python
- Haystack
- Elixir LangChain
- Ollama for R - rollama
- Ollama for R - ollama-r
- Ollama-ex for Elixir
- Ollama Connector for SAP ABAP
- Testcontainers
- Portkey
- PromptingTools.jl,包含示例
- LlamaScript
- llm-axe(构建大语言模型应用的 Python 工具包)
- Gollm
- Gollama for Golang
- Ollamaclient for Golang
- Go 语言高级函数抽象
- Ollama PHP
- Agents-Flex for Java,包含示例
- Parakeet 是一个 GoLang 库,用于简化基于 Ollama 的小型生成式 AI 应用开发
- Haverscript,包含示例
- Ollama for Swift
- Swollama for Swift,包含文档
- GoLamify
- Ollama for Haskell
- multi-llm-ts(一个 TypeScript/JavaScript 库,提供统一的 API 访问不同的大语言模型)
- LlmTornado(C# 库,为主要的开源和商业推理 API 提供统一接口)
- Ollama for Zig
- Abso(兼容 OpenAI 的 TypeScript SDK,支持任何大语言模型提供商)
- Nichey 是一个用于为研究主题生成自定义百科的 Python 包
- Ollama for D
- OllamaPlusPlus(非常简单的 Ollama C++ 库)
移动端
- SwiftChat(快速的跨平台 AI 聊天应用,为 Android、iOS 和 iPad 提供原生界面)
- Enchanted
- Maid
- Ollama App(现代且易用的多平台 Ollama 客户端)
- ConfiChat(轻量级、独立运行、多平台、注重隐私的大语言模型聊天界面,支持可选加密)
- Ollama Android Chat(无需 Termux,一键在 Android 设备上启动 Ollama 服务)
- Reins(轻松调整参数,为每个聊天自定义系统提示,支持推理模型,增强您的 AI 实验)
扩展与插件
- Raycast 扩展
- Discollama(Ollama Discord 频道内的机器人)
- Continue
- Vibe(使用 Ollama 转录和分析会议)
- Obsidian Ollama 插件
- Logseq Ollama 插件
- NotesOllama(Apple Notes Ollama 插件)
- Dagger Chatbot
- Discord AI Bot
- Ollama Telegram Bot
- Hass Ollama Conversation
- Rivet 插件
- Obsidian BMO Chatbot 插件
- Cliobot(支持 Ollama 的 Telegram 机器人)
- Copilot for Obsidian 插件
- Obsidian Local GPT 插件
- Open Interpreter
- Llama Coder(使用 Ollama 的 Copilot 替代方案)
- Ollama Copilot(允许您将 Ollama 用作类似 GitHub Copilot 的代理)
- twinny(使用 Ollama 的 Copilot 和 Copilot 聊天替代方案)
- Wingman-AI(使用 Ollama 和 Hugging Face 的 Copilot 代码和聊天替代方案)
- Page Assist(Chrome 扩展)
- Plasmoid Ollama Control(KDE Plasma 扩展,允许您快速管理/控制 Ollama 模型)
- AI Telegram Bot(后端使用 Ollama 的 Telegram 机器人)
- AI ST Completion(支持 Ollama 的 Sublime Text 4 AI 助手插件)
- Discord-Ollama Chat Bot(通用 TypeScript Discord 机器人,包含调优文档)
- ChatGPTBox: 浏览器一体化扩展,包含集成教程
- Discord AI 聊天/管理机器人 用 Python 编写的聊天/管理机器人,使用 Ollama 创建个性
- Headless Ollama(在任何操作系统上自动安装 Ollama 客户端和模型的脚本,适用于依赖 Ollama 服务器的应用)
- Terraform AWS Ollama & Open WebUI(一个 Terraform 模块,在 AWS 上部署即用的 Ollama 服务及其前端 Open WebUI 服务)
- node-red-contrib-ollama
- Local AI Helper(Chrome 和 Firefox 扩展,支持与活动标签页交互和可定制的 API 端点,包含用户提示的安全存储)
- vnc-lm(通过 Ollama 和 LiteLLM 与大语言模型消息传递的 Discord 机器人,在本地和旗舰模型之间无缝切换)
- LSP-AI(用于 AI 功能的开源语言服务器)
- QodeAssist(Qt Creator 的 AI 编程助手插件)
- Obsidian Quiz Generator 插件
- AI Summary Helper 插件
- TextCraft(使用 Ollama 的 Word Copilot 替代方案)
- Alfred Ollama(Alfred 工作流)
- TextLLaMA 一个 Chrome 扩展,帮助您编写电子邮件、纠正语法并翻译成任何语言
- Simple-Discord-AI
- LLM Telegram Bot(主要用于角色扮演的 Telegram 机器人,具有类似 Oobabooga 的按钮,集成 A1111 API 等)
- mcp-llm(MCP 服务器,允许大语言模型调用其他大语言模型)
- SimpleOllamaUnity(Unity 引擎扩展,用几行代码与 Ollama 通信,也适用于运行时)
- UnityCodeLama(Unity 编辑器工具,通过 Ollama 分析脚本)
支持的后端
- 由 Georgi Gerganov 创立的 llama.cpp 项目
可观测性
- Opik 是一个开源平台,用于调试、评估和监控您的大语言模型应用、RAG 系统和智能体工作流,提供全面的跟踪、自动化评估和生产就绪的仪表板。Opik 原生支持 Ollama 集成
- Lunary 是领先的开源大语言模型可观测性平台。它提供各种企业级功能,如实时分析、提示模板管理、PII 遮罩和全面的智能体跟踪
- OpenLIT 是一个原生 OpenTelemetry 工具,使用跟踪和指标监控 Ollama 应用和 GPU
- HoneyHive 是一个用于 AI 智能体的 AI 可观测性和评估平台。使用 HoneyHive 评估智能体性能、调查故障并监控生产质量
- Langfuse 是一个开源大语言模型可观测性平台,帮助团队协作监控、评估和调试 AI 应用
- MLflow Tracing 是一个开源大语言模型可观测性工具,提供便捷的 API 来记录和可视化跟踪,使调试和评估生成式 AI 应用变得容易