快速入门
自托管文档访问
This section requires a password to access. Interested in self-hosting? Contact sales to learn more.
欢迎来到LlamaCloud!在开始之前,请确保您已满足以下先决条件:
- LlamaCloud许可证密钥。如需获取LlamaCloud许可证密钥,请通过support@llamaindex.ai联系我们。
- Kubernetes cluster
>=1.28.0and a working installation ofkubectl. - Helm
v3.7.0+- 要安装 Helm,请参考Helm 官方文档。
- OpenAI API Key or Azure OpenAI Credentials. Configuring OpenAI credentials is the easiest way to get started with your deployment.
- LlamaCloud 致力于满足您组织的需求,并支持配置除 OpenAI LLM 之外的更多模型,包括 Anthropic、Bedrock、Vertex AI 等。
- 请参考侧边栏配置部分的文档,了解更多关于配置其他大语言模型的信息。
- File Storage: LlamaCloud must leverage your cloud provider’s object storage to store files.
- 请按照文件存储文档配置您的部署。
- Authentication Settings:
- OIDC. OIDC 是我们为生产环境部署推荐的认证模式。
- 基础认证 (邮箱/密码): 截至2025年7月24日 (
v0.5.0),我们同时支持oidc和basic两种认证方式。这是一种更适用于预发布环境的简化认证模式。 - 如需了解更多信息,请参阅认证模式文档。
- 外部服务凭据(见下文)。
LLamaCloud 需要以下外部服务可用:Postgres、MongoDB、RabbitMQ 和 Redis。
请按照数据库与队列文档为您的部署配置这些服务。
- Linux Instances running x86 CPUs
- 我们目前仅支持 linux/amd64 镜像。目前暂不支持 arm64 架构。
- Ubuntu >=22.04
- >=12 个虚拟CPU
- >=80Gbi 内存
警告 #1: LlamaParse(LlamaIndex专有文档解析器)在部署运行时可能非常消耗资源,特别是在您希望最大化性能的情况下。
警告 #2: 如果您正在运行LlamaCloud依赖项的容器化部署,基础CPU/内存要求可能会增加。(更多信息请参阅下一节)
本节将引导您完成配置最小化LlamaCloud部署的步骤。
最小化 values.yaml 配置
Section titled “Minimal values.yaml configuration”要启动并运行一个最小化的LlamaCloud部署,您可以创建一个values.yaml文件,内容如下:
license: key: <LLAMACLOUD-LICENSE-KEY>
postgresql: host: "postgresql" port: "5432" database: "llamacloud" username: <POSTGRES-USERNAME> password: <POSTGRES-PASSWORD>
mongodb: host: "mongodb" port: "27017" username: <MONGODB-USERNAME> password: <MONGODB-PASSWORD>
rabbitmq: scheme: "amqp" host: "rabbitmq" port: "5672" username: <RABBITMQ-USERNAME> password: <RABBITMQ-PASSWORD>
redis: scheme: "redis" host: "redis-master" port: "6379" db: 0
config: llms: openAi: apiKey: <OPENAI-APIKEY>
frontend: enabled: true parseOcr: gpu: true
authentication: oidc: enabled: true discoveryUrl: "https://login.microsoftonline.com/<TENANT-ID>/v2.0/.well-known/openid-configuration" clientId: <CLIENT-ID> clientSecret: <CLIENT-SECRET> license: key: <LLAMACLOUD-LICENSE-KEY>
postgresql: host: "postgresql" port: "5432" database: "llamacloud" username: <POSTGRES-USERNAME> password: <POSTGRES-PASSWORD>
mongodb: host: "mongodb" port: "27017" username: <MONGODB-USERNAME> password: <MONGODB-PASSWORD>
rabbitmq: scheme: "amqp" host: "rabbitmq" port: "5672" username: <RABBITMQ-USERNAME> password: <RABBITMQ-PASSWORD>
redis: scheme: "redis" host: "redis-master" port: "6379" db: 0
config: llms: azureOpenAi: secret: "" deployments: []
frontend: enabled: true parseOcr: gpu: true
authentication: oidc: enabled: true discoveryUrl: "https://login.microsoftonline.com/<TENANT-ID>/v2.0/.well-known/openid-configuration" clientId: <CLIENT-ID> clientSecret: <CLIENT-SECRET> license: key: <LLAMACLOUD-LICENSE-KEY>
postgresql: host: "postgresql" port: "5432" database: "llamacloud" username: <POSTGRES-USERNAME> password: <POSTGRES-PASSWORD>
mongodb: host: "mongodb" port: "27017" username: <MONGODB-USERNAME> password: <MONGODB-PASSWORD>
rabbitmq: scheme: "amqp" host: "rabbitmq" port: "5672" username: <RABBITMQ-USERNAME> password: <RABBITMQ-PASSWORD>
redis: scheme: "redis" host: "redis-master" port: "6379" db: 0
config: llms: openAi: apiKey: <OPENAI-APIKEY>
frontend: enabled: true parseOcr: gpu: true
authentication: basicAuth: enabled: true validEmailDomain: "llamaindex.ai" # this is optional, but recommended for production deployments jwtSecret: <YOUR-JWT-SECRET> license: key: <LLAMACLOUD-LICENSE-KEY>
postgresql: host: "postgresql" port: "5432" database: "llamacloud" username: <POSTGRES-USERNAME> password: <POSTGRES-PASSWORD>
mongodb: host: "mongodb" port: "27017" username: <MONGODB-USERNAME> password: <MONGODB-PASSWORD>
rabbitmq: scheme: "amqp" host: "rabbitmq" port: "5672" username: <RABBITMQ-USERNAME> password: <RABBITMQ-PASSWORD>
redis: scheme: "redis" host: "redis-master" port: "6379" db: 0
config: llms: azureOpenAi: secret: "" deployments: []
frontend: enabled: true parseOcr: gpu: true
authentication: basicAuth: enabled: true validEmailDomain: "llamaindex.ai" # this is optional, but recommended for production deployments jwtSecret: <YOUR-JWT-SECRET># Add the Helm repositoryhelm repo add llamaindex https://run-llama.github.io/helm-charts
# Update your local Helm chart cachehelm repo update
# Create the llamacloud namespacekubectl create ns llamacloud
# Install the Helm charthelm install llamacloud llamaindex/llamacloud -f values.yaml --namespace llamacloud如果您想安装特定版本的 Helm 图表,可以指定版本:
helm install llamacloud llamaindex/llamacloud --version x.y.z -f values.yaml --namespace llamacloud安装完成后,您将看到以下输出:
NNAME: llamacloudLAST DEPLOYED: Tue Nov 18 10:12:03 2025NAMESPACE: llamacloudSTATUS: deployedREVISION: 1TEST SUITE: NoneNOTES:Welcome to LlamaCloud!
View your deployment with the following:
kubectl --namespace default get pods -n llamacloud
To view LlamaCloud UI in your browser: Run the following command:
kubectl --namespace llamacloud port-forward svc/llamacloud-web 3000:80如果你使用 kubectl get pods -n llamacloud 列出容器组,应该会看到以下容器组:
NAME READY STATUS RESTARTS AGEllamacloud-64f468d5cf-sqjq6 1/1 Running 0 2m56sllamacloud-layout-6d97b84c58-rld8x 1/1 Running 0 2m56sllamacloud-ocr-5cc459bdd-99xgt 1/1 Running 0 2m56sllamacloud-operator-5d4c58b854-dwnjk 1/1 Running 0 2m56sllamacloud-parse-7ffbc786b5-r98w2 1/1 Running 0 2m56sllamacloud-telemetry-5fc9ff8c67-fv8xj 1/1 Running 0 2m56sllamacloud-web-b88d95588-rprhc 1/1 Running 0 2m56sllamacloud-worker-58b95ccc6f-vqmgx 1/1 Running 0 2m56s端口转发前端服务以访问LlamaCloud用户界面:
kubectl --namespace llamacloud port-forward svc/llamacloud-web 3000:80打开您的网页浏览器并导航至 http://localhost:3000。您应该能看到LlamaCloud用户界面。
根据您的需求选择部署方式:
推荐给大多数用户 - 针对主流云服务商的完整且具有明确导向的指南:
- Azure: AKS + 微软原生服务与 Microsoft Entra ID
- AWS: EKS + AWS原生服务(即将推出)
- GCP: GKE + GCP原生服务(即将推出)
这些指南提供使用云原生服务和企业身份验证的端到端操作说明。
面向高级用户,适用于有特定需求或非标准配置的情况:
- 认证模式 - 配置OIDC、基础认证或自定义认证
- 文件存储 - 设置 S3、Azure Blob、GCS 或其他存储
- 数据库与队列 - 配置外部数据库和消息队列
- LLM 集成 - 设置 OpenAI、Azure OpenAI、Bedrock 或其他 LLM
- 入口配置 - 负载均衡器、SSL与网络配置
- 自动扩缩容配置 - 基于HPA和KEDA的服务扩缩容
- 服务调优 - 性能和扩展配置
如果您需要定制集成、有特定合规性要求,或希望混合搭配不同服务,请参考这些指南。
- 每个组件还有许多其他配置选项可供选择。要查看完整的 values.yaml 规范,请参考 Helm 图表仓库中的 values.yaml 文件。
- 要查看常见场景的配置方式,请参考 Helm chart 仓库中的
values.yaml示例 目录。 - 同样,我们也在那里提供了其他配置文档,用于更高级的配置。