快速入门
Index是LlamaCloud平台的一部分(该平台包括LlamaParse、LlamaExtract、LlamaAgents及其他产品)。它能轻松为您的RAG应用场景建立高度可扩展且可自定义的数据摄取流水线。无需担心扩展性挑战、文档管理或复杂的文件解析问题。
Index 通过无代码界面、REST API/客户端以及与我们流行的 python 和 typescript 框架的无缝集成提供所有这些功能。
将您的索引连接到数据源,设置解析参数和嵌入模型,索引将自动处理将数据同步到向量数据库。之后,我们提供易于使用的界面来查询索引,并从输入文档中检索相关的真实信息。
- 注册账户
- 为您偏好的嵌入模型服务(例如 OpenAI)准备一个 API 密钥。
通过 https://cloud.llamaindex.ai/ 登录
您应该能看到通过 Google、Github、Microsoft 或电子邮件登录的选项。

通过用户界面设置索引
Section titled “Set up an index via UI”通过左侧导航栏导航至 Index 功能。

点击 Create Index 按钮。您应该会看到一个索引配置表单。

配置解析与转换设置
切换以启用或禁用 Llama Parse。
选择 Auto 模式以获得最佳默认转换设置(根据需要指定所需的块大小和块重叠。)
ManualManual 模式即将推出,提供更多自定义选项。

配置完数据摄取流水线后,点击Deploy Index开始数据摄取。

(可选)通过用户界面观察和管理您的索引
Section titled “(Optional) Observe and manage your index via UI”您应该能看到一个索引概览,其中包含最新的数据摄取状态。

(可选)通过测试平台验证检索功能
导航至 Playground 标签页以测试您的检索端点。
在 Fast、Accurate 和 Advanced 检索模式之间进行选择。
输入测试查询并指定检索配置(例如基础检索和重排序后的前n个结果)。

(可选)管理已连接的数据源(或上传的文件)
导航至 Data Sources 标签页以管理您已连接的数据源。
您可以更新插入、删除、下载和预览已上传的文件。

将您的检索端点集成到RAG/智能体应用中
Section titled “Integrate your retrieval endpoint into RAG/agent application”设置好索引后,我们现在可以将检索端点集成到我们的RAG/智能体应用程序中。 这里我们将以colab笔记本为例。
设置您的RAG/智能体应用程序 - Python笔记本
安装最新的python框架:
pip install llama-index导航至 Overview 标签页。点击 Retrieval Endpoint 卡片下方的 Copy 按钮

现在你已经准备好使用一个最小化的RAG应用程序了!

您可以在此处找到演示用的Colab笔记本此处。




