跳转到内容

快速入门

Index是LlamaCloud平台的一部分(该平台包括LlamaParse、LlamaExtract、LlamaAgents及其他产品)。它能轻松为您的RAG应用场景建立高度可扩展且可自定义的数据摄取流水线。无需担心扩展性挑战、文档管理或复杂的文件解析问题。

Index 通过无代码界面、REST API/客户端以及与我们流行的 python 和 typescript 框架的无缝集成提供所有这些功能。

将您的索引连接到数据源,设置解析参数和嵌入模型,索引将自动处理将数据同步到向量数据库。之后,我们提供易于使用的界面来查询索引,并从输入文档中检索相关的真实信息。

  1. 注册账户
  2. 为您偏好的嵌入模型服务(例如 OpenAI)准备一个 API 密钥。

通过 https://cloud.llamaindex.ai/ 登录

您应该能看到通过 Google、Github、Microsoft 或电子邮件登录的选项。

sign-in

通过用户界面设置索引

Section titled “Set up an index via UI”

通过左侧导航栏导航至 Index 功能。 new pipeline

点击 Create Index 按钮。您应该会看到一个索引配置表单。 configure

配置数据源 - 文件上传

点击 Select a data source 下拉菜单并选择 Files data source

将文件拖入文件池或 click to browsefile upload

查看完整数据源及规格列表

配置数据接收器 - 托管

选择 Fully Managed 数据接收器。 data source

查看完整的数据接收器列表及规格说明

配置嵌入模型 - OpenAI

选择 OpenAI Embedding 并填入您的API密钥。 embed model

查看支持的嵌入模型完整列表

配置解析与转换设置

切换以启用或禁用 Llama Parse

选择 Auto 模式以获得最佳默认转换设置(根据需要指定所需的块大小和块重叠。)

ManualManual 模式即将推出,提供更多自定义选项。

data source

关于解析与转换设置的更多详情

配置完数据摄取流水线后,点击Deploy Index开始数据摄取。 deploy index

(可选)通过用户界面观察和管理您的索引

Section titled “(Optional) Observe and manage your index via UI”

您应该能看到一个索引概览,其中包含最新的数据摄取状态。 index overview

(可选)通过测试平台验证检索功能

导航至 Playground 标签页以测试您的检索端点。

FastAccurateAdvanced 检索模式之间进行选择。 输入测试查询并指定检索配置(例如基础检索和重排序后的前n个结果)。 data source

(可选)管理已连接的数据源(或上传的文件)

导航至 Data Sources 标签页以管理您已连接的数据源。

您可以更新插入、删除、下载和预览已上传的文件。

manage files

设置好索引后,我们现在可以将检索端点集成到我们的RAG/智能体应用程序中。 这里我们将以colab笔记本为例。

获取LlamaCloud API密钥

从左侧边栏导航至 API Key 页面。点击 Generate New Key 按钮。 api key

将API密钥复制到安全位置。您将无法再次获取此密钥。 更详细的操作指南

设置您的RAG/智能体应用程序 - Python笔记本

安装最新的python框架:

pip install llama-index

查看详细说明

导航至 Overview 标签页。点击 Retrieval Endpoint 卡片下方的 Copy 按钮 retrieval endpoint

现在你已经准备好使用一个最小化的RAG应用程序了! colab example

您可以在此处找到演示用的Colab笔记本此处