跳转到内容
LlamaIndex 文档
Search
Ctrl
K
取消
Python
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
LlamaCloud
欢迎来到LlamaCloud
解析
LlamaParse 概述
入门指南
预设和模式
模式与预设
高级解析模式
自动模式
输出
功能特性
解析选项
多模态解析
Python 使用指南
布局提取
元数据
缓存选项
结构化输出(测试版)
Webhook
支持的文档类型
任务可预测性
选择要解析的内容
LlamaParse 文档管道触发器
解析指令(已弃用)
提示词
LlamaParse 常见问题解答
LlamaParse API v2 指南
示例
LlamaParse 示例
使用LlamaParse解析和分析Excel电子表格
使用附加提示解析
迁移指南:解析上传端点从v1到v2
提取
入门指南
入门指南
使用网页界面
Python 软件开发工具包
REST API
功能特性
LlamaExtract 核心概念
模式设计与限制
配置选项
元数据扩展
性能优化技巧
示例
LlamaExtract 示例
自动生成提取模式
从财务报告中提取数据 - 附带引用和推理
使用表格行提取技术提取重复实体
LlamaExtract 隐私政策
分类
入门指南
入门指南
分类 Python SDK
示例
LlamaClassify 示例
分类合同类型
索引
入门指南
使用指南
索引使用指南
索引状态监控
索引API与客户端指南
索引框架集成
索引 无代码界面指南
操作指南
文件
从文档中提取图表
示例
索引示例
使用索引与智能体构建RAG应用
集成
数据接收器
数据接收器
AstraDB
Azure AI 搜索
托管数据接收器
Milvus
MongoDB Atlas 向量搜索
松果
Qdrant
数据源
数据源
Azure Blob 存储数据源
Box存储数据源
Confluence 数据源
文件上传数据源
Google 云端硬盘数据源
Jira 数据源
微软 OneDrive 数据源
S3 数据源
Microsoft SharePoint 数据源
嵌入模型
嵌入模型
Azure 嵌入
Bedrock 嵌入
Cohere 嵌入
双子座嵌入
HuggingFace 嵌入
OpenAI 嵌入
多环境
解析与转换
检索
基础
检索模式
高级
组合检索
图像检索
表格
示例
LlamaSheets 示例
使用 LlamaSheets 与编程智能体
使用 LlamaSheets 与自定义智能体和工作流
入门指南
通用
API密钥
定价
组织
区域
计费与使用情况
Webhooks
速率限制
自托管
快速入门
常见问题解答
架构
云服务特定指南
概述
Azure 部署
Azure 设置指南
验证指南
故障排除指南
配置
认证
文件存储
入口
数据库与队列
概述
Azure 服务总线作为作业队列
大语言模型集成
概述
OpenAI 设置
Azure OpenAI 设置
Anthropic API 设置
AWS Bedrock 设置
谷歌Gemini API设置
谷歌 Vertex AI 设置
自动扩缩容
全局管理员设置
调优
服务配置
LlamaParse 配置
LlamaParse 配置 - 吞吐量
教程集
教程集
企业级部署
云API参考文档 🔗
工作流
LlamaIndex 工作流
常见模式
分支
扇入/扇出(并行)模式
人机协同工作流
工作流中的循环
工作流中的状态
追踪工作流
可视化工作流
教程
Express 智能体
1. 简介
2. 智能体循环
3. 添加状态
4. 添加人工介入循环
5. 快速智能体
工作流API参考 🔗
框架
欢迎来到LlamaIndex.TS
入门指南
高级概念
创建-Llama
代码示例
安装
安装
Next.js 应用程序
服务器API与后端
无服务器函数
故障排除
集成
朗迹
MCP 数据库工具箱
OpenLLMetry
Vercel
迁移
从 v0.8 迁移到 v0.9
已弃用
智能体
智能体
模块
智能体
智能体工作流
底层LLM执行
使用自然语言定义工作流
工具
工具
工作流
数据
文档与节点
数据索引
索引
托管索引
数据摄取管道
数据摄取流水线
转换
转换
元数据提取
节点解析器 / 文本分割器
内存
内存
读者
加载数据
Discord阅读器
JSON阅读器
Llama 解析
LlamaParse
图像检索
JSON模式
商店
存储
聊天存储
聊天存储
文档存储
文档存储
索引存储
索引商店
键值存储
键值存储
向量存储
向量存储
Qdrant 向量存储
Supabase 向量存储
评估
评估
正确性评估器
忠实度评估器
相关性评估器
模型
嵌入向量
嵌入
DeepInfra
双子座
抱抱脸
Jina AI
米斯特拉尔人工智能
MixedbreadAI
奥拉玛
OpenAI
OVHcloud AI 端点
协同
VoyageAI
大语言模型
大型语言模型(LLMs)
人类学
Azure OpenAI
基岩
DeepInfra
深度求索大语言模型
焰火大语言模型
双子座
格罗普
骆驼2
米斯特拉尔
奥拉玛
OpenAI
OVHcloud AI 端点
困惑度语言模型
Portkey 大语言模型
Together 大语言模型
提示词
提示词
检索增强生成
聊天引擎
节点后处理器
节点后处理器
Cohere 重排序器
Jina AI 重排器
MixedbreadAI
查询引擎
查询引擎
元数据筛选
路由查询引擎
响应合成器
检索器
聊天界面
使用@llamaindex/聊天界面
使用LlamaIndex服务器
更多
教程
带RAG的智能体
1. 设置
2. 创建一个基础智能体
3. 通过Ollama使用本地模型
4. 添加检索增强生成 (RAG)
5. 一个能进行数学计算的RAG智能体
6. 添加LlamaParse
7. 添加持久化向量存储
基础智能体
每请求自定义模型
本地大语言模型
检索增强生成
检索增强生成 (RAG)
概念
结构化数据提取
工作流程
框架API参考 🔗
Twitter
LinkedIn
Bluesky
GitHub
Select theme
Dark
Light
Auto
更多
🗺️ 生态系统
Section titled “🗺️ Ecosystem”
要下载或贡献,请在以下平台找到LlamaIndex:
GitHub
NPM
社区
Section titled “Community”
需要帮助?有功能建议?加入LlamaIndex社区:
推特
Discord