欢迎来到LlamaIndex.TS
LlamaIndex.TS 是一个利用上下文工程构建生成式 AI 应用程序的框架,基于大型语言模型。从快速原型开发 RAG 聊天机器人到在生产环境中部署多智能体工作流,LlamaIndex 为您提供所需的一切——全部采用地道的 TypeScript 实现。
Built for modern JavaScript runtimes like Node.js, Deno, Bun, Cloudflare Workers, and more.
简介
上下文工程、智能体与工作流——它们意味着什么?
使用案例
了解您可以使用LlamaIndex.TS构建什么。
入门指南
用5行代码创建你的第一个应用。
LlamaCloud
托管解析、提取与检索流水线。
社区
加入数千名开发者在Discord、Twitter等平台上的交流。
相关项目
连接器、演示和入门套件。
智能体是由大型语言模型驱动的助手,能够进行推理、使用外部工具并采取行动来完成诸如研究、数据提取和自动化等任务。 LlamaIndex.TS 为创建和编排这些智能体提供了基础构建模块。
工作流是多步骤、事件驱动的流程,结合了智能体、数据连接器和其他工具来解决复杂问题。 通过 LlamaIndex.TS,您可以将检索、生成和工具调用步骤串联起来,然后将整个流水线部署为微服务。
大型语言模型基于海量公共语料库进行预训练,但并未接触您的私有或领域特定数据。 上下文工程通过适时向LLM提示中注入恰当的数据片段来弥合这一差距。 最典型的例子是检索增强生成(RAG),但相同理念也支撑着智能体记忆、评估、提取、摘要等更多功能。
LlamaIndex.TS 为您提供:
- 数据连接器 可从API、文件、SQL及数十种其他来源摄取数据。
- 索引与检索器 用于存储和检索数据以供大语言模型使用。
- 智能体与引擎 用于查询和使用数据上的聊天+推理接口。
- 工作流 用于精细编排您的数据和基于LLM的智能体。
- 可观测性集成,让您能够充满信心地进行迭代。
您可以在我们的概念指南中了解更多关于这些概念的信息。
热门应用场景包括:
最快入门的方式是使用下面的 StackBlitz — 无需本地设置:
想要了解更多?我们提供多个教程助您入门:
LlamaCloud
Section titled “LlamaCloud”需要一个端到端的托管流水线?查看LlamaCloud:提供一流的文档解析(LlamaParse)、提取(LlamaExtract)和索引服务,并包含慷慨的免费额度。
我们 💜 贡献者!查看我们的贡献指南开始参与。
- Python 框架 GitHub
- Python 文档
- create-llama — 在几秒钟内搭建一个新项目!
- 用户界面组件 — 使用我们的 Next.js 组件构建聊天应用。