跳到主要内容

Ollama 中文文档

本地运行大型语言模型的完整指南

Easy to Use

简单易用

Ollama 让在本地运行大型语言模型变得简单。只需一条命令即可下载、安装和运行各种开源模型,无需复杂配置。

Focus on What Matters

高性能本地推理

专为本地环境优化,支持 CPU 和 GPU 加速。让您在自己的设备上享受快速、私密的 AI 体验,数据完全掌控在自己手中。

Powered by React

丰富的模型生态

支持 Llama、Mistral、Gemma 等众多开源模型。通过简单的 API 接口,轻松集成到您的应用程序中。

优云智算