常见问题解答
自托管文档访问
This section requires a password to access. Interested in self-hosting? Contact sales to learn more.
哪些LlamaCloud服务与哪些数据库/队列/文件存储依赖项进行通信?
Section titled “Which LlamaCloud services communicate with which database/queue/filestore dependencies?”- 后端:Postgres、MongoDB、Redis、文件存储
- 作业服务:Postgres、MongoDB、文件存储
- 作业工作者:RabbitMQ, Redis, MongoDB
- 用法:MongoDB 与 Redis
- LlamaParse:从 RabbitMQ 消费,从文件存储读取/写入
- LlamaParse OCR:无
哪些功能需要大型语言模型以及需要什么模型?
Section titled “Which Features Require an LLM and what model?”-
聊天界面:此功能要求客户拥有OpenAI密钥,以便访问纯文本模型和/或多模态模型(如果使用多模态索引)
-
这些密钥是通过 Helm 图表设置的:
-
config:llms:openAi:apiKey: <OPENAI-APIKEY># Name of the existing secret to use for the OpenAI API key# secret: ""# If you are using Azure OpenAI, you can configure it like this:# azureOpenAi:# secret: ""# deployments: []# # - model: "gpt-4o-mini"# # deploymentName: "gpt-4o-mini"# # apiKey: ""# # baseUrl: "https://api.openai.com/v1"# # apiVersion: "2024-08-06"
-
-
-
嵌入:在索引创建工作流程中,直接在应用程序内输入连接嵌入模型提供商的凭据。
-
LlamaParse 快速版:仅文本提取。无大语言模型。
-
LlamaParse 精确模式:此模式在底层使用
gpt-4o。
LLM API 速率限制
Section titled “LLM API Rate Limits”在许多情况下,你可能会遇到LLM提供商的某种速率限制。最简单的调试方法是查看日志,如果看到429错误,请提高你的每分钟令牌限制。
config: ## Log level for the application (DEBUG, INFO, WARNING, ERROR, CRITICAL) logLevel: INFO我们支持自托管部署的OIDC和基础认证两种方式。如需更多信息,请参阅认证模式文档。
使用自定义Helm发布名称的BYOC端口转发
Section titled “BYOC Port-Forwarding with Custom Helm Release Names”问题: 在测试未配置入口的BYOC部署(使用端口转发)时,后端服务必须能在 http://llamacloud-backend:8000 地址访问。
受影响设置:
- 无需入口配置的BYOC部署
- 使用
kubectl port-forward进行测试
临时解决方案(在永久修复可用之前):
-
手动服务创建: 使用预期名称创建额外的后端服务。
-
设置入口: 配置适当的入口而非依赖端口转发。详情请参阅入口配置文档。
建议: 在生产部署中,请始终使用适当的入口配置,而非端口转发。
手动服务创建
当您未正确配置入口时,可以使用以下步骤作为临时解决方案。
创建一个 Kuberentes Service 对象:
apiVersion: v1kind: Servicemetadata: name: llamacloud-backend namespace: <your namespace>spec: ports: - name: http port: 8000 protocol: TCP targetPort: http selector: app.kubernetes.io/instance: llamacloud app.kubernetes.io/name: llamacloud type: ClusterIPstatus: loadBalancer: {}应用对象:kubectl apply -f llamacloud-backend-service.yaml -n <your namespace>。
您现在应该能够创建账户并登录LlamaCloud用户界面。如果您还想测试文档解析功能,必须告诉浏览器如何与llamacloud-backend服务通信。
您可以通过在本地机器的/etc/hosts文件中添加以下行来实现:
127.0.0.1 llamacloud-backend