跳转到内容
LlamaIndex Python 文档
搜索
Ctrl
K
取消
TypeScript
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
LlamaCloud
欢迎来到LlamaCloud
解析
LlamaParse 概述
入门指南
预设和模式
模式与预设
高级解析模式
自动模式
输出
功能特性
解析选项
多模态解析
Python 使用指南
布局提取
元数据
缓存选项
结构化输出(测试版)
Webhook
支持的文件类型
工作可预测性
选择解析内容
LlamaParse 文档处理流水线触发器
解析指令(已弃用)
提示词
LlamaParse 常见问题解答
LlamaParse API v2 使用指南
示例
LlamaParse 示例
使用LlamaParse解析和分析Excel电子表格
使用附加提示进行解析
迁移指南:解析上传端点从v1到v2
提取
入门指南
入门指南
使用网页界面
Python 软件开发工具包
REST API
功能特性
LlamaExtract 核心概念
模式设计与限制
配置选项
元数据扩展
性能优化建议
示例
LlamaExtract 示例
自动生成提取模式
从财务报告中提取数据——附带引用与推理
提取重复实体与表格行提取
LlamaExtract 隐私政策
分类
入门指南
入门指南
分类Python SDK
示例
Llama分类示例
分类合同类型
索引
入门指南
使用指南
索引使用指南
索引状态监控
索引API与客户端指南
索引框架集成
索引 无代码界面指南
操作指南
文件
从文档中提取图表
示例
索引示例
使用索引与代理构建RAG应用
集成
数据接收器
数据接收器
AstraDB
Azure AI 搜索
托管数据接收器
Milvus
MongoDB Atlas 向量搜索
松果
Qdrant
数据源
数据来源
Azure Blob 存储数据源
箱存储数据源
汇流数据源
文件上传数据源
Google Drive 数据源
Jira 数据源
Microsoft OneDrive 数据源
S3 数据源
Microsoft SharePoint 数据源
嵌入模型
嵌入模型
Azure 嵌入
基岩嵌入
Cohere 嵌入
双子座嵌入
HuggingFace 嵌入
OpenAI 嵌入
多环境
解析与转换
检索
基础
检索模式
高级
复合检索
图像检索
表格
示例
LlamaSheets 示例
使用 LlamaSheets 与编程智能体
使用 LlamaSheets 与自定义智能体和工作流
入门指南
通用
API密钥
定价
组织
区域
计费与使用情况
Webhooks
速率限制
自托管
快速入门
常见问题解答
架构
云服务专用指南
概述
Azure 部署
Azure 设置指南
验证指南
故障排除指南
配置
认证
文件存储
入口
数据库与队列
概述
Azure 服务总线作为作业队列
大语言模型集成
概述
OpenAI 设置
Azure OpenAI 设置
Anthropic API 设置
AWS Bedrock 设置
谷歌Gemini API设置
谷歌 Vertex AI 设置
自动扩缩容
全局管理员设置
调优
服务配置
LlamaParse 配置
LlamaParse 配置 - 吞吐量
教程集
教程集
企业级部署
云API参考文档 🔗
Llama代理
新
概述
智能体工作流
简介
分支与循环
状态管理
流式事件
工作流的并发执行
人在回路
自定义入口和出口点
绘制工作流程
资源对象
重试步骤执行
从无约束函数构建工作流
将您的工作流程作为服务器运行
编写持久化工作流
可观测性
llamactl
入门指南
为你的工作流提供服务
配置用户界面
工作流 React 钩子
部署配置参考
使用 GitHub Actions 实现持续部署
智能体数据
智能体数据 (Python)
智能体数据 (JavaScript)
llamactl 参考文档
初始化
服务
部署
认证
认证环境
包
工作流API参考 🔗
LlamaIndex 框架
欢迎来到 LlamaIndex 🦙!
入门指南
高级概念
安装与设置
如何阅读这些文档
入门教程(使用OpenAI)
入门教程(使用本地大语言模型)
探索LlamaIndex视频系列
常见问题解答 (FAQ)
入门工具
入门工具
RAG 命令行界面
Python中的异步编程
学习
构建LLM应用程序
使用大型语言模型
构建智能体
构建智能体
使用现有工具
维护状态
流式输出与事件
人在回路
LlamaIndex中的多智能体模式
使用结构化输出
构建RAG管道
RAG入门指南
索引
索引
加载中
加载数据(摄取)
从LlamaCloud加载
LlamaHub
查询
查询
存储
存储
结构化数据提取
结构化数据提取简介
使用结构化LLM
结构化预测
底层结构化数据提取
结构化输入
追踪与调试
追踪与调试
评估中
成本分析
成本分析
使用模式
评估
整合所有内容
整合所有内容
智能体
应用
全栈Web应用
使用LLamaIndex构建全栈Web应用指南
使用Delphic构建全栈LlamaIndex网络应用指南
聊天机器人
如何构建聊天机器人
问答
问答模式
术语与定义提取指南
结构化数据
结构化数据
隐私与安全
应用场景
应用场景
代理
聊天机器人
结构化数据提取
微调
查询图
多模态
提示
问答系统(RAG)
查询CSV文件
解析表格与图表
文本转SQL
组件指南
组件指南
部署
智能体
代理
内存
模块指南
工具
聊天引擎
聊天引擎
模块指南
使用模式
查询引擎
查询引擎
模块指南
响应模式
流式处理
支持模块
使用模式
评估
评估
贡献一个 `LabelledRagDataset`
使用 `LabelledEvaluatorDataset` 评估评估器
使用 `LabelledRagDataset` 进行评估
模块
使用模式(响应评估)
使用模式(检索)
索引
索引
文档管理
每种索引的工作原理
LlamaCloud索引 + LlamaCloud检索器
使用属性图索引
元数据提取
模块指南
使用向量存储索引
加载中
加载数据
连接器
数据连接器 (LlamaHub)
LlamaParse
模块指南
使用模式
文档与节点
文档 / 节点
定义与自定义文档
元数据提取使用模式
定义与自定义节点
数据摄取管道
数据摄取流水线
转换
节点解析器
节点解析器使用模式
节点解析器模块
简单目录阅读器
MCP
模型上下文协议 (MCP)
将现有的LlamaIndex工作流和工具转换为MCP
LlamaCloud MCP 服务器与工具
在LlamaIndex中使用MCP工具
模型
模型
嵌入向量
大语言模型
使用大型语言模型
使用本地模型
可用的LLM集成
在LlamaIndex抽象框架中定制LLM
将大型语言模型作为独立模块使用
多模态模型
提示词
提示词
提示词使用模式
可观测性
可观测性
回调函数
回调函数
令牌计数 - 迁移指南
仪表化
查询中
查询中
节点后处理器
节点后处理器
节点后处理模块
响应合成器
响应合成器
响应合成模块
检索器
检索器
检索器模式
检索器模块
路由器
路由器
结构化输出
结构化输出
输出解析模块
Pydantic 程序
(已弃用)查询引擎 + Pydantic 输出
存储
存储
聊天存储
自定义存储
文档存储
索引存储
键值存储
数据持久化与加载
向量存储
支持模块
从 ServiceContext 迁移到 Settings
配置设置
支持模块
开源社区
常见问题
常见问题解答
聊天引擎
文档与节点
嵌入向量
大型语言模型
查询引擎
向量数据库
全栈项目
集成
集成
ChatGPT 插件集成
使用DeepEval对LLMs/RAG进行单元测试
舰队上下文嵌入 - 为Llamaindex库构建混合搜索引擎
使用图存储
使用 Graphsignal 进行追踪
指南
语言模型格式强制器
使用托管索引
Tonic 验证
使用 TruLens 进行评估与追踪
使用UpTrain对LlamaIndex执行评估
使用向量存储
Llama 包
Llama 包 🦙📦
更新日志
示例
大型语言模型
AI21
阿莱夫·阿尔法
人类学
Anthropic 提示缓存
Anyscale
ASI 大语言模型
Azure AI 模型推理
Azure OpenAI
Baseten 烹饪指南
基岩
Bedrock 对话
思睿布拉
Clarifai 大语言模型
Cleanlab 可信语言模型
科赫尔
CometAPI
通义千问大语言模型
数据砖块
DeepInfra
深度求索
埃弗利AI
无羽AI大语言模型
烟花
Fireworks 函数调用指南
友利
双子座
谷歌 GenAI
格罗克 4
格罗普
Helicone AI 网关
Heroku LLM 托管推理
Hugging Face 语言模型
IBM watsonx.ai
在英特尔CPU上运行IPEX-LLM
基于英特尔GPU的IPEX-LLM
康科
LangChain 大语言模型
LiteLLM
Replicate - Llama 2 13B模型
🦙 x 🦙 说唱对战
Llama 应用程序接口
LlamaCPP
llamafile
LLM 预测器
LM 工作室
LocalAI
婚姻对话
MistralRS 大语言模型
米斯特拉尔人工智能
魔搭社区大语言模型
怪兽API与LLamaIndex
MyMagic AI 大语言模型
Nebius 大语言模型
Netmind AI 大语言模型
中微子人工智能
英伟达 NIMs
英伟达 NIMs
英伟达 TensorRT-LLM
NVIDIA的LLM文本补全API
英伟达 Triton
Oracle云基础设施数据科学
Oracle云基础设施生成式人工智能
奥克托AI
Ollama 大语言模型
Ollama - 宝石
OpenAI
OpenAI JSON模式与函数调用在数据提取中的对比
OpenAI 响应 API
开放路由
OpenVINO 大语言模型
OpenVINO 生成式AI 大语言模型
采用IPEX后端优化的Optimum Intel LLM模型
使用Opus 4.1与LlamaIndex
阿里云PAI-EAS
PaLM
困惑度
[管道转换](https://pipeshift.com)
波特基
普雷迪贝斯
PremAI Llama索引
百度智能云千帆大模型平台的客户端
运行GPT
使用LlamaIndex与部署在Amazon SageMaker端点中的LLM进行交互
桑巴诺瓦系统
Together AI 大语言模型
上阶段
Vercel AI 网关
顶点AI
复现 - Vicuna 13B
vLLM
Xorbits 推理
Yi 大语言模型
嵌入向量
Aleph Alpha 嵌入
Anyscale 嵌入
Baseten 嵌入
Bedrock 嵌入
使用 Clarifai 的嵌入功能
Cloudflare Workers AI 嵌入
CohereAI 嵌入
自定义嵌入
达摩院嵌入模型
Databricks 嵌入
DeepInfra
Elasticsearch 嵌入向量
Qdrant FastEmbed 嵌入
烟花嵌入
谷歌Gemini嵌入模型
GigaChat
谷歌GenAI嵌入技术
谷歌 PaLM 嵌入模型
Heroku LLM 托管推理嵌入
使用HuggingFace进行本地嵌入
IBM watsonx.ai
在英特尔CPU上使用IPEX-LLM实现本地嵌入
在英特尔GPU上使用IPEX-LLM实现本地嵌入
艾萨克斯嵌入
Jina 8K 上下文窗口嵌入
Jina嵌入模型
LangChain 嵌入
Llamafile 嵌入
LLMRails 嵌入
MistralAI 嵌入技术
Mixedbread AI 嵌入
魔搭嵌入模型
Nebius 嵌入
Netmind AI 嵌入
Nomic嵌入
英伟达NIM微服务
Oracle云基础设施(OCI)数据科学服务
甲骨文云基础设施生成式人工智能
Ollama 嵌入
OpenAI 嵌入
使用 OpenVINO 实现本地嵌入
使用 Optimum-Intel 优化的嵌入模型
Oracle AI向量搜索:生成嵌入向量
PremAI 嵌入
使用LlamaIndex与部署在Amazon SageMaker端点中的嵌入进行交互
文本嵌入推理
TextEmbed - 嵌入推理服务器
Together AI 嵌入
Upstage 嵌入
使用LlamaIndex与部署在Vertex AI端点中的嵌入进行交互
VoyageAI 嵌入
YandexGPT
向量存储
阿里云开放搜索向量存储
Google AlloyDB for PostgreSQL - `AlloyDBVectorStore`
Amazon Neptune - Neptune Analytics 向量存储
AnalyticDB
使用LlamaIndex将ApertureDB作为向量存储库。
阿斯特拉数据库
简单向量存储 - 异步索引创建
Awadb 向量存储
测试删除
Azure AI 搜索
Azure CosmosDB MongoDB 向量存储
Azure Cosmos DB No SQL 向量存储
Azure Postgres 向量存储
百吉饼向量存储
贝果网络
百度向量数据库
Cassandra 向量存储
从向量数据库自动检索
Chroma 向量存储
Chroma + Fireworks + Nomic 与套娃嵌入
色度
ClickHouse 向量存储
适用于PostgreSQL的Google Cloud SQL - `PostgresVectorStore`
等待集群准备就绪可供使用。
DashVector 向量存储
Databricks 向量搜索
IBM Db2 向量存储与向量搜索
Deep Lake 向量存储快速入门
DocArray Hnsw 向量存储
DocArray 内存向量存储
蜻蜓与向量存储
DuckDB
从向量数据库自动检索
Elasticsearch
Elasticsearch 向量存储
Epsilla 向量存储
现有数据
指南:将向量存储索引与现有Pinecone向量存储结合使用
指南:将向量存储索引与现有Weaviate向量存储结合使用
Faiss 向量存储
Firestore 向量存储
凝胶向量存储
Hnswlib
Hologres
捷豹向量存储
使用LlamaIndex和KDB.AI向量存储实现带时间过滤器的进阶RAG
LanceDB 向量存储
灯笼向量存储(自动检索器)
灯笼向量存储
Lindorm
使用异步API的Milvus向量存储
Milvus向量存储与全文搜索
Milvus向量存储与混合搜索
Milvus向量存储
Milvus向量存储 - 元数据过滤器
MongoDB Atlas 向量存储
MongoDB Atlas + Fireworks AI RAG 示例
MongoDB Atlas + OpenAI RAG 示例
穆尔切赫向量存储演示
MyScale向量存储
Neo4j 向量存储 - 元数据过滤器
Neo4j 向量存储
尼罗河向量存储(多租户PostgreSQL)
ObjectBox 向量存储演示
OceanBase 向量存储
Opensearch 向量存储
Oracle AI 向量搜索:向量存储
pgvecto.rs
从入门到精通指南:自动检索功能详解(集成Pinecone + Arize Phoenix)
Pinecone向量存储 - 元数据过滤器
Pinecone 向量存储
Pinecone向量存储 - 混合搜索
Postgres 向量存储
使用Qdrant BM42进行混合搜索
Qdrant 混合搜索
使用Qdrant的混合RAG:多租户、自定义分片、分布式设置
Qdrant向量存储 - 元数据过滤器
Qdrant向量存储 - 默认Qdrant过滤器
Qdrant 向量存储
Redis 向量存储
瑞尔特
Rockset 向量存储
S3VectorStore 集成
简单向量存储
本地Llama2 + 向量存储索引
Llama2 + 向量存储索引
简单向量存储 - 最大边际相关性检索
S3/R2 存储
Supabase 向量存储
表格存储向量库
Tair向量存储
腾讯云向量数据库
TiDB 向量存储
时序向量存储 (PostgreSQL)
txtai 向量存储
Typesense 向量存储
Upstash 向量存储
加载文档
1. 安装
谷歌 Vertex AI 向量搜索
Vespa 向量存储演示
从Weaviate向量数据库自动检索
Weaviate向量存储元数据过滤器
Weaviate 向量存储
Weaviate向量存储 - 混合搜索
**WordLift** 向量存储
Zep 向量存储
检索器
自动合并检索器
结构化检索方法比较(自动检索 vs. 递归检索)
Bedrock(知识库)
BM25检索器
可组合对象
Activeloop 深度记忆
集成检索指南
使用长上下文嵌入的文档分块混合检索 (Together.ai)
路径检索器
互惠重排融合检索器
递归检索器 + 节点引用 + Braintrust
递归检索器 + 节点引用
相对分数融合与基于分布的分数融合
路由检索器
简单融合检索器
从Vectara索引自动检索
Vertex AI 搜索检索器
连接到 VideoDB
You.com 检索器
框架API参考 🔗
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
使用案例
LlamaIndex 为广泛的人工智能应用提供了强大的功能。探索以下用例,了解如何根据您的具体需求利用 LlamaIndex:
提示工程
- 学习使用LlamaIndex的高级提示技巧
问答系统 (RAG)
- 构建检索增强生成系统
聊天机器人
- 创建对话式人工智能应用
结构化数据提取
- 从非结构化文本中提取结构化信息
智能体
- 开发自主AI智能体
多模态应用
- 处理文本、图像及其他数据类型
微调
- 为您的特定使用场景定制模型