跳转到内容
LlamaIndex Python Documentation
Search
Ctrl
K
取消
TypeScript
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
LlamaCloud
欢迎来到LlamaCloud
解析
LlamaParse 概述
入门指南
预设与模式
模式与预设
高级解析模式
自动模式
输出
特性
解析选项
多模态解析
Python 使用指南
布局提取
元数据
缓存选项
结构化输出(测试版)
Webhook
支持的文件类型
工作可预测性
选择解析内容
LlamaParse 文档处理流水线触发器
解析指令(已弃用)
提示词
LlamaParse 常见问题解答
LlamaParse API v2 使用指南
示例
LlamaParse 示例
使用LlamaParse解析和分析Excel电子表格
使用附加提示进行解析
迁移指南:解析上传端点从v1到v2版本
提取
入门指南
入门指南
使用网页界面
Python 软件开发工具包
REST API
特性
LlamaExtract 核心概念
模式设计与限制
配置选项
元数据扩展
性能优化建议
示例
LlamaExtract 示例
自动生成提取模式
从财务报告中提取数据——附带引用与推理
提取重复实体与表格行提取
LlamaExtract 隐私政策
分类
入门指南
入门指南
分类Python SDK
示例
Llama分类示例
分类合同类型
索引
入门指南
使用指南
索引使用指南
索引状态监控
索引API与客户端指南
索引框架集成
索引 无代码界面指南
操作指南
文件
从文档中提取图表
示例
索引示例
使用索引与代理构建RAG应用
集成
数据接收器
数据接收器
AstraDB
Azure AI 搜索
托管数据接收器
Milvus
MongoDB Atlas 向量搜索
松果
Qdrant
数据来源
数据来源
Azure Blob 存储数据源
箱存储数据源
汇流数据源
文件上传数据源
Google Drive 数据源
Jira 数据源
Microsoft OneDrive 数据源
S3 数据源
Microsoft SharePoint 数据源
嵌入模型
嵌入模型
Azure 嵌入
基岩嵌入
Cohere 嵌入
双子座嵌入
HuggingFace 嵌入技术
OpenAI 嵌入技术
多环境
解析与转换
检索
基本
检索模式
高级
复合检索
图像检索
表格
示例
LlamaSheets 示例
使用LlamaSheets与编程代理
使用LlamaSheets搭配自定义代理与工作流程
入门指南
将军
API密钥
定价
组织
区域
账单与使用情况
Webhooks
速率限制
自托管
快速开始
常见问题解答
建筑
云服务专用指南
概述
Azure 部署
Azure 设置指南
验证指南
故障排除指南
配置
认证
文件存储
入口
数据库与队列
概述
Azure Service Bus 作为作业队列
LLM 集成
概述
OpenAI 设置
Azure OpenAI 设置
Anthropic API 设置
AWS Bedrock 设置
谷歌双子星API设置
谷歌Vertex AI设置
自动扩缩容
全局管理员设置
调谐
服务配置
LlamaParse 配置
LlamaParse 配置 - 吞吐量
烹饪书籍
烹饪书籍
企业推广
云API参考文档 🔗
Llama代理
新
概述
代理工作流程
引言
分支与循环
管理状态
流媒体活动
工作流的并发执行
人在回路
自定义入口和出口点
绘制工作流程
资源对象
重试步骤执行
来自未绑定函数的工作流
将您的工作流程作为服务器运行
编写持久化工作流
可观测性
llamactl
入门指南
服务于您的工作流程
配置用户界面
工作流React钩子
部署配置参考
使用GitHub Actions实现持续部署
代理数据
代理数据(Python)
代理数据(JavaScript)
llamactl 参考指南
初始化
服务
部署
认证
认证环境
包
工作流API参考 🔗
LlamaIndex 框架
欢迎来到LlamaIndex 🦙!
入门指南
高层次概念
安装与设置
如何阅读这些文档
入门教程(使用OpenAI)
入门教程(使用本地LLM)
探索LlamaIndex视频系列
常见问题解答(FAQ)
入门工具
入门工具
RAG 命令行界面
Python中的异步编程
学习
构建一个LLM应用
使用大型语言模型
构建代理
构建一个代理
使用现有工具
保持状态
流式输出与事件
人在回路
LlamaIndex中的多智能体模式
使用结构化输出
构建RAG管道
RAG简介
索引
索引
加载中
加载数据(摄取)
从LlamaCloud加载
LlamaHub
查询中
查询中
存储
存储
结构化数据提取
结构化数据提取简介
使用结构化大型语言模型
结构化预测
低级结构化数据提取
结构化输入
追踪与调试
追踪与调试
评估
成本分析
成本分析
使用模式
评估
整合一切
整合一切
代理
应用程序
全栈Web应用
使用LLamaIndex构建全栈Web应用指南
使用Delphic构建全栈LlamaIndex网络应用指南
聊天机器人
如何构建聊天机器人
问与答
问答模式
术语与定义提取指南
结构化数据
结构化数据
隐私与安全
用例
用例
代理
聊天机器人
结构化数据提取
微调
查询图
多模态
提示
问答系统(RAG)
查询CSVs
解析表格与图表
文本转SQL
组件指南
组件指南
部署
代理
代理
记忆
模块指南
工具
聊天引擎
聊天引擎
模块指南
使用模式
查询引擎
查询引擎
模块指南
响应模式
流媒体
支持模块
使用模式
评估
评估
贡献一个`LabelledRagDataset`
使用`LabelledEvaluatorDataset`评估评估器
使用`LabelledRagDataset`进行评估
模块
使用模式(响应评估)
使用模式(检索)
索引
索引
文档管理
每个索引的工作原理
LlamaCloud索引 + LlamaCloud检索器
使用属性图索引
元数据提取
模块指南
使用VectorStoreIndex
加载中
加载数据
连接器
数据连接器(LlamaHub)
LlamaParse
模块指南
使用模式
文档与节点
文档 / 节点
定义与自定义文档
元数据提取使用模式
定义与自定义节点
摄取流水线
摄取流水线
转变
节点解析器
节点解析器使用模式
节点解析器模块
简单目录阅读器
MCP
模型上下文协议(MCP)
将现有的LlamaIndex工作流与工具转换为MCP
LlamaCloud MCP 服务器与工具
在LlamaIndex中使用MCP工具
模型
模型
嵌入向量
大语言模型
使用大型语言模型
使用本地模型
可用的LLM集成
在LlamaIndex抽象框架内定制大型语言模型
将大型语言模型作为独立模块使用
多模态模型
提示词
提示词
提示使用模式
可观测性
可观测性
回调函数
回调函数
令牌计数 - 迁移指南
仪器仪表
查询中
查询中
节点后处理器
节点后处理器
节点后处理器模块
响应合成器
响应合成器
响应合成模块
寻回犬
寻回犬
检索器模式
检索器模块
路由器
路由器
结构化输出
结构化输出
输出解析模块
Pydantic 程序
(已弃用)查询引擎 + Pydantic 输出
存储
存储
聊天商店
定制化存储
文档存储
索引商店
键值存储
持久化与加载数据
向量存储
支持模块
从ServiceContext迁移到Settings
配置设置
支持模块
开源社区
常见问题解答
常见问题解答
聊天引擎
文档与节点
嵌入向量
大型语言模型
查询引擎
向量数据库
全栈项目
集成
集成
ChatGPT插件集成
使用DeepEval对LLMs/RAG进行单元测试
舰队上下文嵌入 - 为Llamaindex库构建混合搜索引擎
使用图存储
使用Graphsignal进行追踪
指导
LM格式强制器
使用托管索引
补品验证
使用TruLens进行评估与追踪
使用UpTrain对LlamaIndex进行评估
使用向量存储
骆驼包
骆驼包 🦙📦
更新日志
示例
大型语言模型
AI21
阿莱夫·阿尔法
人类学
Anthropic 提示缓存
Anyscale
ASI 大语言模型
Azure AI模型推理
Azure OpenAI
Baseten 烹饪指南
基岩
基岩对话
Cerebras
Clarifai 大型语言模型
Cleanlab可信赖语言模型
科赫尔
CometAPI
DashScope 大语言模型
数据砖块
DeepInfra
深度求索
埃弗利AI
无羽AI大语言模型
烟花
烟花函数调用指南
友利
双子座
谷歌生成式人工智能
格罗克 4
格罗普
Helicone AI 网关
Heroku LLM 托管推理服务
拥抱面部LLMs
IBM watsonx.ai
英特尔CPU上的IPEX-LLM
IPEX-LLM 在英特尔 GPU 上的应用
金古
LangChain 大语言模型
LiteLLM
复制 - 骆驼 2 13B
🦙 对 🦙 说唱对决
Llama 应用程序接口
LlamaCPP
llamafile
大语言模型预测器
LM Studio
LocalAI
婚姻对话
MistralRS 大型语言模型
米斯特拉尔人工智能
ModelScope 大语言模型
怪兽API与LLamaIndex
MyMagic AI 大语言模型
Nebius 大型语言模型
Netmind AI 大语言模型
中微子人工智能
英伟达NIM微服务
英伟达NIM微服务
英伟达TensorRT-LLM
NVIDIA的LLM文本补全API
英伟达 Triton
甲骨文云计算基础设施数据科学
甲骨文云基础设施生成式人工智能
奥克托AI
Ollama 大语言模型
Ollama - 宝石
OpenAI
OpenAI JSON模式与函数调用在数据提取中的对比
OpenAI 响应API
开放路由
OpenVINO 大型语言模型
OpenVINO 生成式AI大语言模型
使用IPEX后端优化的英特尔大语言模型
使用Opus 4.1与LlamaIndex
阿里云-平台即服务
PaLM
困惑度
[管道转换](https://pipeshift.com)
门钥匙
普雷迪贝斯
PremAI LlamaIndex
百度智能云千帆大模型平台的客户
运行GPT
使用LlamaIndex与部署在Amazon SageMaker端点上的LLM进行交互
SambaNova Systems
一起AI大语言模型
上升阶段
Vercel AI 网关
顶点AI
复制 - 维库纳 13B
vLLM
Xorbits 推理
Yi 大语言模型
嵌入向量
Aleph Alpha 嵌入技术
Anyscale嵌入
Baseten 嵌入
基岩嵌入
使用Clarifai的嵌入技术
Cloudflare Workers AI 嵌入技术
CohereAI 嵌入技术
自定义嵌入
DashScope嵌入技术
Databricks 嵌入技术
DeepInfra
Elasticsearch 嵌入
Qdrant 快速嵌入向量
烟花嵌入
谷歌双子座嵌入技术
GigaChat
谷歌GenAI嵌入技术
谷歌PaLM嵌入技术
Heroku LLM 托管推理嵌入
使用HuggingFace进行本地嵌入
IBM watsonx.ai
在英特尔CPU上使用IPEX-LLM实现本地嵌入
在英特尔GPU上使用IPEX-LLM实现本地嵌入
艾萨克嵌入
Jina 8K 上下文窗口嵌入
Jina嵌入模型
LangChain 嵌入技术
Llamafile 嵌入技术
LLMRails嵌入技术
MistralAI 嵌入技术
Mixedbread AI 嵌入技术
ModelScope嵌入
Nebius嵌入技术
Netmind AI 嵌入技术
Nomic 嵌入
英伟达NIM微服务
Oracle云基础设施数据科学服务
甲骨文云基础设施生成式人工智能
Ollama嵌入
OpenAI嵌入技术
使用OpenVINO实现本地嵌入
使用Optimum-Intel优化的嵌入模型
Oracle AI向量搜索:生成嵌入向量
PremAI 嵌入技术
使用LlamaIndex与部署在Amazon SageMaker端点中的嵌入进行交互
文本嵌入推理
文本嵌入 - 嵌入推理服务器
Together AI 嵌入技术
Upstage 嵌入技术
使用LlamaIndex与部署在Vertex AI端点中的嵌入进行交互
VoyageAI嵌入技术
YandexGPT
向量存储
阿里云开放搜索向量存储
Google AlloyDB for PostgreSQL - `AlloyDBVectorStore`
亚马逊海王星 - 海王星分析向量存储
AnalyticDB
ApertureDB作为向量存储与LlamaIndex的结合。
阿斯特拉数据库
简单向量存储 - 异步索引创建
Awadb 向量存储
测试删除
Azure AI 搜索
Azure CosmosDB MongoDB 向量存储
Azure Cosmos DB NoSQL 向量存储
Azure Postgres 向量存储
贝格尔向量存储
贝果网络
百度向量数据库
卡桑德拉向量存储
从向量数据库自动检索
色度向量存储
Chroma + Fireworks + 采用套娃嵌入技术的Nomic
色度
ClickHouse向量存储
Google Cloud SQL for PostgreSQL - `PostgresVectorStore`
等待集群准备就绪,可供使用。
DashVector向量存储
Databricks 矢量搜索
IBM Db2 向量存储与向量搜索
Deep Lake 向量存储快速入门
DocArray Hnsw 向量存储
DocArray 内存向量存储
蜻蜓与向量存储
DuckDB
从向量数据库自动检索
Elasticsearch
Elasticsearch 向量存储
Epsilla 向量数据库
现有数据
指南:如何将现有Pinecone向量存储与向量存储索引结合使用
指南:使用现有Weaviate向量存储与向量存储索引
Faiss 向量存储
Firestore 向量存储
凝胶向量存储
Hnswlib
Hologres
捷豹矢量商店
使用LlamaIndex和KDB.AI向量存储实现带有时态过滤器的高级RAG
LanceDB 向量存储
灯笼向量存储(自动检索器)
灯笼向量存储
Lindorm
Milvus向量存储与异步API
Milvus向量存储与全文检索
Milvus向量存储与混合搜索
Milvus 向量存储
Milvus向量存储 - 元数据过滤器
MongoDB Atlas 向量存储
MongoDB Atlas + Fireworks AI RAG 示例
MongoDB Atlas + OpenAI RAG 示例
Moorcheh 向量存储演示
MyScale向量存储
Neo4j 向量存储 - 元数据过滤器
Neo4j 向量存储
尼罗向量存储(多租户PostgreSQL)
ObjectBox 向量存储演示
海洋基地向量存储
Opensearch 向量存储
Oracle AI向量搜索:向量存储
pgvecto.rs
从基础到进阶的自动检索指南(使用Pinecone + Arize Phoenix)
Pinecone向量存储 - 元数据过滤器
松果向量存储
Pinecone向量存储 - 混合搜索
Postgres 向量存储
使用Qdrant BM42的混合搜索
Qdrant 混合搜索
混合检索增强生成与Qdrant:多租户架构、自定义分片及分布式部署
Qdrant向量存储 - 元数据过滤器
Qdrant向量存储 - 默认Qdrant过滤器
Qdrant 向量存储
Redis 向量存储
瑞尔特
Rockset 向量存储
S3VectorStore集成
简单向量存储
本地Llama2 + 向量存储索引
Llama2 + 向量存储索引
简单向量存储 - 最大边际相关性检索
S3/R2 存储
Supabase 向量存储
表格存储向量库
Tair向量存储
腾讯云向量数据库
TiDB 向量存储
时序向量存储(PostgreSQL)
txtai 向量存储
Typesense 向量存储
Upstash 向量存储
加载文档
1. 安装
谷歌顶点AI向量搜索
Vespa 向量存储演示
从Weaviate向量数据库自动检索
Weaviate向量存储元数据过滤器
Weaviate向量存储
Weaviate向量存储 - 混合搜索
**WordLift** 向量存储
Zep 向量存储
检索器
自动合并检索器
比较结构化检索方法(自动检索与递归检索)
基岩(知识库)
BM25检索器
可组合对象
Activeloop 深度记忆
集成检索指南
块状+文档混合检索与长上下文嵌入(Together.ai)
路径检索器
互惠重排融合检索器
递归检索器 + 节点引用 + 脑信任
递归检索器 + 节点引用
相对分数融合与基于分布的分数融合
路由器检索器
简单融合检索器
从Vectara索引自动检索
Vertex AI 搜索检索器
连接到视频数据库
You.com 检索器
框架API参考 🔗
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
使用案例
LlamaIndex 为广泛的人工智能应用提供了强大的功能。探索以下用例,了解如何根据您的具体需求利用 LlamaIndex:
提示工程
- 通过LlamaIndex学习高级提示技术
问答系统 (RAG)
- 构建检索增强生成系统
聊天机器人
- 创建对话式人工智能应用
结构化数据提取
- 从非结构化文本中提取结构化信息
智能体
- 开发自主AI智能体
多模态应用
- 处理文本、图像及其他数据类型
微调
- 为您的特定使用场景定制模型