简单易用
Ollama 让在本地运行大型语言模型变得简单。只需一条命令即可下载、安装和运行各种开源模型,无需复杂配置。
高性能本地推理
专为本地环境优化,支持 CPU 和 GPU 加速。让您在自己的设备上享受快速、私密的 AI 体验,数据完全掌控在自己手中。
丰富的模型生态
支持 Llama、Mistral、Gemma 等众多开源模型。通过简单的 API 接口,轻松集成到您的应用程序中。
本地运行大型语言模型的完整指南
Ollama 让在本地运行大型语言模型变得简单。只需一条命令即可下载、安装和运行各种开源模型,无需复杂配置。
专为本地环境优化,支持 CPU 和 GPU 加速。让您在自己的设备上享受快速、私密的 AI 体验,数据完全掌控在自己手中。
支持 Llama、Mistral、Gemma 等众多开源模型。通过简单的 API 接口,轻松集成到您的应用程序中。