更新日志#
[2025-06-02]#
llama-index-core [0.12.40]#
- 功能:添加StopEvent步骤验证,确保只有一个工作流步骤能处理StopEvent (#18932)
- 修复:在向LLM参数提供
tool_required前添加兼容性检查 (#18922)
llama-index-embeddings-cohere [0.5.1]#
- 修复:为Cohere API添加批量大小验证,限制为96 (#18915)
llama-index-llms-anthropic [0.7.2]#
- 功能:支持向Anthropic Bedrock传递静态AWS凭证 (#18935)
- 修复:处理Anthropic工具配置中未测试的无工具场景 (#18923)
llama-index-llms-google-genai [0.2.1]#
- 修复:为google-genai函数调用使用正确的自动模式 (#18933)
llama-index-llms-openai [0.4.2]#
- 修复: 清理OpenAI LLM API中的一些字段类型问题 (#18918)
- 修复:将OpenAIResponses类中损坏的
reasoning_effort参数迁移到reasoning_options字典中 (#18920)
llama-index-tools-measurespace [0.1.0]#
- 功能:新增来自Measure Space的天气、气候、空气质量及地理编码工具 (#18909)
llama-index-tools-mcp [0.2.3]#
- 功能:为BasicMCPClient添加headers处理功能 (#18919)
[2025-05-30]#
llama-index-core [0.12.39]#
- 功能:在Workflows中添加Resource以实现依赖注入(文档即将发布!)(#18884)
- 功能:为函数调用LLMs添加
require_tool参数 (#18654) - 修复:使hitl事件的前缀和响应变为非必填项 (#18896)
- 修复:当LLM未选择任何选项时SelectionOutputParser的问题 (#18886)
llama-index-indices-managed-llama-cloud [0.7.2]#
- 功能:添加非持久化复合检索 (#18908)
llama-index-llms-bedrock-converse [0.7.0]#
- 功能: 更新aioboto3依赖以支持最新版本 (#18889)
llama-index-llms-ollama [0.6.1]#
- 支持ollama 0.5.0 SDK,更新ollama文档 (#18904)
llama-index-vector-stores-milvus [0.8.3]#
- 功能:Milvus支持多语言分析器 (#18901)
[2025-05-28]#
llama-index-core [0.12.38]#
- 功能:添加了一个非常简单的嵌入缓存实现 (#18864)
- 功能:在NLSQLRetriever中添加
cols_retrievers(#18843) - 功能:在NLSQLTableQueryEngine中添加行、列和表检索器作为参数 (#18874)
- 功能:为FunctionAgent添加可配置的allow_parallel_tool_calls参数 (#18829)
- 功能:允许在BaseToolSpec函数中使用ctx,以及其他ctx + 工具调用重构 (#18783)
- 功能:优化get_biggest_prompt以提高可读性和效率 (#18808)
- 修复:防止JSONReader中的拒绝服务攻击 (#18877)
- 修复:当LLM未选择任何选项时SelectionOutputParser的问题 (#18886)
- 修复:在hitl期间从ctx恢复AgentWorkflow (#18844)
- 修复:AgentWorkflow运行期间的上下文序列化问题 (#18866)
- 修复:如果内容块解析方法产生空字节则抛出错误 (#18819)
- 修复:减少解析"思考/行动/行动输入"ReActAgent完成时的问题 (#18818)
- 修复:从QueryFusionRetriever的llm响应中移除代码块反引号 (#18825)
- 修复: 当schema中没有"title"键时,修复function_program.py中的
get_function_tool(#18796)
llama-index-agent-azure-foundry [0.1.0]#
- 功能:添加Azure Foundry智能体集成 (#18772)
llama-index-agent-llm-compiler [0.3.1]#
- 功能: 支持llm-compiler的
stream_step/astream_step(#18809)
llama-index-embeddings-google-genai [0.2.0]#
- 功能:添加Gemini嵌入测试和重试配置 (#18846)
llama-index-embeddings-openai-like [0.1.1]#
- 修复:将
http_client和async_http_client传递给父类以用于OpenAILikeEmbedding (#18881)
llama-index-embeddings-voyageai [0.3.6]#
- 功能:引入voyage-3.5模型 (#18793)
llama-index-indices-managed-llama-cloud [0.7.1]#
- 功能:为
search_filters_inference_schema添加客户端支持 (#18867) - 功能:新增异步方法和空白索引创建 (#18859)
llama-index-llms-anthropic [0.6.19]#
- 功能:更新以支持Anthropic LLM中的Claude 4 (#18817)
- 修复: 在Anthropic中的思考+工具调用 (#18834)
- 修复: 检查anthropic消息中的thinking是否为非空值 (#18838)
- 修复: 更新/修复对claude-4的支持 (#18820)
llama-index-llms-bedrock-converse [0.6.0]#
- 功能: 添加Claude4模型支持 (#18827)
- 修复:修正Bedrock Converse中DocumentBlock的使用问题 (#18791)
- 修复:使用空参数调用工具的问题 (#18786)
llama-index-llms-cleanlab [0.5.0]#
- 功能:更新包名称和模型 (#18483)
llama-index-llms-featherlessai [0.1.0]#
- 功能: 无羽LLM集成 (#18778)
llama-index-llms-google-genai [0.1.14]#
- 修复:Google GenAI 的令牌计数行为,添加基础重试机制 (#18876)
llama-index-llms-ollama [0.5.6]#
- 功能:尝试在ollama中自动设置上下文窗口 (#18822)
- 功能:在ollama模型中使用默认温度参数 (#18815)
llama-index-llms-openai [0.3.44]#
- 功能:新增OpenAI响应特性(图像生成、mcp调用、代码解释器)(#18810)
- 修复:更新OpenAI响应类型导入以兼容最新openai库 (#18824)
- 修复: 在OpenAI智能体中跳过工具描述长度检查 (#18790)
llama-index-llms-servam [0.1.1]#
- 功能:添加Servam AI LLM集成,支持类似OpenAI的接口 (#18841)
llama-index-observability-otel [0.1.0]#
- 功能:为可观测性集成OpenTelemetry (#18744)
llama-index-packs-raptor [0.3.2]#
- 在Raptor聚类中使用全局
llama_index分词器 (#18802)
llama-index-postprocessor-rankllm-rerank [0.5.0]#
- 功能:使用最新版本的rank-llm SDK (#18831)
llama-index-readers-azstorage-blob [0.3.1]#
- 修复: azstorageblobreader中的元数据和文件名问题 (#18816)
llama-index-readers-file [0.4.8]#
- 修复:从远程文件系统读取pptx文件的问题 (#18862)
llama-index-storage-kvstore-postgres [0.3.1]#
- 功能:从现有的SQLAlchemy引擎创建PostgresKVStore (#18798)
llama-index-tools-brightdata [0.1.0]#
- 功能:集成brightdata (#18690)
llama-index-tools-google [0.3.1]#
- 修复:
GmailToolSpec.load_data()调用搜索时缺少参数 (#18832)
llama-index-tools-mcp [0.2.2]#
- 功能:增强SSE端点检测以提高更广泛的兼容性 (#18868)
- 功能:全面改造
BasicMCPClient以支持所有MCP特性 (#18833) - 修复:当allowed_tools列表为空时,McpToolSpec获取所有工具的问题 (#18879)
- 修复:添加缺失的
BasicMCPClient.with_oauth()kwargs (#18845)
llama-index-tools-valyu [0.2.0]#
- 功能: 升级至valyu 2.0.0 (#18861)
llama-index-vector-stores-azurecosmosmongo [0.6.0]#
- 功能:为Azure Cosmos DB Mongo向量存储添加向量索引压缩支持 (#18850)
llama-index-vector-stores-opensearch [0.5.5]#
- 功能:添加过滤器支持以检查元数据键是否不存在 (#18851)
- 修复:不要在向量存储节点中同时传入
extra_info和metadata(#18805)
[2025-05-19]#
llama-index-core [0.12.37]#
- 确保
Memory至少返回一条消息 (#18763) - 在访问
message.content时用换行符分隔文本块 (#18763) - 在多智能体工作流中重置
next_agent(#18782) - 在聊天存储中支持sqlalchemy v1 (#18780)
- 修复: 损坏的hotpotqa数据集URL (#18764)
- 在SimpleDirectoryReader中使用
get_tqdm_iterable(#18722) - 将智能体工作流参数传入启动事件 (#18747)
- 修复(chunking): 确保在AST节点分块过程中正确处理多字节字符 (#18702)
llama-index-llms-anthropic [0.6.14]#
- 修复了OpenAI和Anthropic中的DocumentBlock处理问题 (#18769)
llama-index-llms-bedrock-converse [0.5.4]#
- 修复Bedrock Converse的工具调用解析问题 (#18781)
- 功能:为Bedrock添加缺失的客户端参数 (#18768)
- 修复在Bedrock Converse中合并多个工具调用的问题 (#18761)
llama-index-llms-openai [0.3.42]#
- 修复了OpenAI和Anthropic中的DocumentBlock处理问题 (#18769)
- 移除openai中的工具长度检查 (#18784)
- 添加对空工具调用增量的检查,提升版本 (#18745)
llama-index-llms-openai-like [0.3.5]#
- 移除openai中的工具长度检查 (#18784)
llama-index-retrievers-vectorize [0.1.0]#
- 添加向量化检索器 (#18685)
llama-index-tools-desearch [0.1.0]#
- 功能/去搜索集成 (#18738)
[2025-05-14]#
llama-index-core [0.12.36]#
- 在向量内存块中增加对自动session_id过滤的支持 (#18730)
- 新增功能:支持在聊天消息中使用DocumentBlock (#18719)
- 为BaseIndex添加了初始异步方法 (#18711)
- 使用fs检查数据摄取管道路径 (#18680)
- 在StreamingAgentChatResponse中添加边缘情况处理 (#18679)
llama-index-embeddings-azure-openai [0.3.5]#
- 在Azure嵌入中查找azure openai密钥环境变量 (#18703)
- 仅在未使用
use_azure_ad时获取api_key(#18708) - 修复当不使用
use_azure_ad时获取api_key的if分支拼写错误 (#18720)
llama-index-embeddings-cohere [0.5.0]#
- 支持Cohere V4嵌入和V2客户端 (#18464)
llama-index-embeddings-fastembed [0.3.2]#
- Bug修复: FastEmbedEmbedding 缺少将额外参数传递给 API 的代码 (#18695)
llama-index-graph-stores-neptune [0.3.3]#
- 修复:处理获取Neptune节点属性时可能出现的OverflowError错误 (#18687)
llama-index-readers-legacy-office [0.1.1]#
- 功能:
legacy_office,基于Apache Tika的.doc阅读器 (#18649) - chore: 修复遗留办公文档阅读器臃肿的元数据问题 (#18696)
llama-index-retrievers-vectorize [0.1.0]#
- 添加向量化检索器 (#18685)
llama-index-tools-brightdata [0.1.0]#
- 功能/brightdata集成 (#18690)
llama-index-tools-mcp [0.1.3]#
- 针对工作流服务器和函数工具的MCP单行命令 (#18729)
llama-index-tools-openapi [0.4.0]#
- 功能改进 提升OpenAPI和Requests工具的能力与可靠性 (#18681)
llama-index-tools-requests [0.4.0]#
- 功能改进:提升OpenAPI和Requests工具的能力与可靠性 (#18681)
llama-index-vector-stores-milvus [0.8.2]#
- 修复(MilvusVectorStore): 使用Milvus的主键名称而非'id' (#18714)
llama-index-vector-stores-postgres [0.5.3]#
- 为PGVectorStore添加
IS_EMPTY支持 (#18667)
llama-index-vector-stores-redis [0.5.1]#
- 添加异步Redis向量存储支持 (#18675)
[2025-05-08]#
llama-index-core [0.12.35]#
- 为
FunctionTool添加支持预填充部分工具参数的功能 (#18658) - 修复/优化智能体最大迭代次数跳过问题 (#18634)
- 针对预构建工作流(如
AgentWorkflow)中边缘情况序列化的处理 (#18628) - 使用新的基类重构内存功能 (#18594)
- 添加预构建内存块 (#18607)
llama-index-embeddings-autoembeddings [0.1.0]#
- 支持来自chonkie的AutoEmbeddings集成 (#18578)
llama-index-embeddings-huggingface-api [0.3.1]#
- 修复huggingface-hub的依赖版本 (#18662)
llama-index-indices-managed-vectara [0.4.5]#
- 修复了在Vectara中使用chain reranker时cutoff参数的问题 (#18610)
llama-index-llms-anthropic [0.6.12]#
- Anthropic引用和工具调用 (#18657)
llama-index-llms-cortex [0.3.0]#
- Cortex 认证增强功能 2 (#18588)
llama-index-llms-dashscope [0.3.3]#
- 修复dashscope工具调用解析问题 (#18608)
llama-index-llms-google-genai [0.1.12]#
- 修复google-genai llm中修改对象引用的问题 (#18616)
- 功能(llama-index-llms-google-genai): 2.5-flash预览测试 (#18575)
- 修复 last_msg 索引问题 (#18611)
llama-index-llms-huggingface-api [0.4.3]#
- 针对Huggingface API的任务和依赖项修复 (#18662)
llama-index-llms-litellm [0.4.2]#
- 修复解析流式工具调用的功能 (#18653)
llama-index-llms-meta [0.1.1]#
- 支持将Meta Llama-api作为LLM提供商 (#18585)
llama-index-node-parser-docling [0.3.2]#
- 修复/文档节点解析器元数据 (#186390)
llama-index-node-parser-slide [0.1.0]#
- 新增SlideNodeParser集成 (#18620)
llama-index-readers-github [0.6.1]#
- 修复:为GitHubIssuesClient添加follow_redirects=True参数 (#18630)
llama-index-readers-markitdown [0.1.1]#
- 修复MarkItDown阅读器错误 (#18613)
llama-index-readers-oxylabs [0.1.2]#
- 添加Oxylabs读取器 (#18555)
llama-index-readers-web [0.4.1]#
- 修复了Firecrawl库的不当调用问题 (#18646)
- 添加Oxylabs阅读器 (#18555)
llama-index-storage-chat-store-gel [0.1.0]#
- 添加Gel集成 (#18503)
llama-index-storage-docstore-gel [0.1.0]#
- 添加Gel集成 (#18503)
llama-index-storage-kvstore-gel [0.1.0]#
- 添加Gel集成 (#18503)
llama-index-storage-index-store-gel [0.1.0]#
- 添加Gel集成 (#18503)
llama-index-utils-workflow [0.3.2]#
- 修复draw_all_possible_flows的事件颜色 (#18660)
llama-index-vector-stores-faiss [0.4.0]#
- 添加Faiss Map向量存储并修复缺失的index_struct删除 (#18638)
llama-index-vector-stores-gel [0.1.0]#
- 添加Gel集成 (#18503)
llama-index-vector-stores-postgres [0.5.2]#
- 添加索引元数据字段 (#18595)
[2025-04-30]#
- 将代码库从poetry迁移到uv (#18524)
llama-index-core [0.12.34]#
- 修复: 当showprogress为False时,
aextract_table_summaries导致不必要输出 (#18528)
llama-index-embeddings-cohere [0.4.1]#
- 修复使用自定义端点的Cohere嵌入多进程问题 (#18551)
llama-index-embeddings-openvino-genai [0.5.0]#
- 添加openvino genai嵌入功能 (#18569)
llama-index-llms-bedrock-converse [0.5.0]#
- 添加对AWS Bedrock应用推理配置文件的支持 (#18549)
llama-index-llms-google-genai [0.1.10]#
- 2.5-flash-preview 测试 + 结构化预测变更/修复 (#18575)
- 在Google GenAI LLM中解锁pillow依赖项 (#18533)
- 正确合并工具消息 (#18527)
llama-index-llms-huggingface-api [0.4.2]#
- 为HuggingFaceInferenceAPI添加provider支持 (#18574)
llama-index-llms-vllm [0.5.1]#
- 功能:添加is_chat_model选项 (#18552)
llama-index-packs-code-hierarchy [0.5.1]#
- 代码层级智能体包处理空文件及不同编码文件的问题 (#18538)
llama-index-postprocessor-cohere-rerank [0.4.0]#
- 在CohereRerank中将默认模型版本更新至v3.0 (#18579)
llama-index-readers-database [0.4.0]#
- 增强DatabaseReader的功能并改进文档 (#18537)
llama-index-tools-mcp [0.1.2]#
- 防止MCP连接挂起 (#18512)
llama-index-vector-stores-opensearch [0.5.3]#
- 为AOSS添加OpensearchVectorClient以有条件检查索引是否存在 (#18560)
llama-index-vector-stores-postgres [0.5.1]#
- 在PGVectorStore中实现aget_nodes和adelete (#18515)
- 允许PGVectorStore传入引擎 (#18507)
[2025-04-23]#
llama-index-core [0.12.33 / 0.12.33.post1]#
- 捆绑较新的tiktoken编码,提升最低tiktoken版本要求 (#18509)
llama-index-vector-stores-milvus [0.8.1]#
- Milvus向量存储:更新元数据过滤演示 (#18502)
[2025-04-21]#
llama-index-core [0.12.32]#
- 修复媒体资源序列化问题 (#18496)
- 修复React智能体提示更新 (#18494)
llama-index-indices-managed-vectara [0.4.4]#
- 在VectaraIndex上关闭GC中的"session" (#18484)
llama-index-llms-openai [0.3.38]#
- 允许在OpenAI助手消息中使用内容块 (#18495)
llama-index-llms-openvino-genai [0.1.1]#
- 修复openvino llm初始化问题 (#18481)
llama-index-vector-stores-milvus [0.8.0]#
- MilvusVectorStore: 默认使用BM25作为稀疏嵌入函数 (#18460)
[2025-04-16]#
llama-index-core [0.12.31]#
- 修复/内存多模态内容序列化问题 (#18447)
- 为内存和后处理器基类添加异步支持 (#18438)
llama-index-callbacks-arize-pheonix [0.5.1]#
- llama index 回调 arize phoenix Python 版本升级 (#18466)
llama-index-graph-stores-nebula [0.4.2]#
- 修复nebula索引DDL (#18461)
llama-index-indices-managed-vectara [0.4.3]#
- 为Vectara添加了
llm_name参数 (#18472)
llama-index-llms-cohere [0.4.1]#
- 扩展对Cohere模型的支持 (#18440)
llama-index-llms-llama-api [0.4.0]#
- 通过封装OpenAI修复LlamaAPI集成问题 (#18437)
llama-index-llms-perplexity [0.3.3]#
- 为新模型更新Perplexity实现 (#18442)
llama-index-llms-openai [0.3.37]#
- 新增了对OpenAI 4.1支持的模型名称 (#18456)
- 支持o3和o4-mini (#18473)
- 在使用Azure异步方法时不要创建同步的openai客户端 (#18471)
llama-index-storage-chat-store-sqlite [0.1.0]#
- 功能 添加SQLite聊天存储 (#18432)
llama-index-vector-stores-ApertureDB [0.0.1]#
- 新增ApertureDB向量存储 (#18428)
llama-index-vector-stores-elasticsearch [0.4.3]#
- 实现缺失的BasePydanticVectorStore方法 (#18454)
[2025-04-10]#
llama-index-core [0.12.30]#
- 修复多智能体状态格式化问题 (#18417)
- 默认使用to_thread处理异步读取方法 (#18418)
llama-index-callbacks-arize-pheonix [0.5.0]#
- 为独立上下文连接新的Phoenix追踪选项 (#18415)
llama-index-graph-stores-nebula [0.4.1]#
- 修复nebula属性获取问题 (#18423)
llama-index-llms-openai [0.3.33]#
- 实际修复OpenAIResponses中的引用传递错误 (#18420)
[2024-04-08]#
llama-index-core [0.12.29]#
- 在AgentWorkflow中更好地执行智能体交接 (#18399)
- 等待事件重构以处理多个
wait_for_event调用 (#18226) - 修复: 🐛 将已损坏且停用的
tree_sitter_languages替换为tree_sitter_language_pack(#18387) - 修复了SentenceSplitter在处理大量文本时消耗较高的pop(0)问题 (#18359)
llama-index-embeddings-huggingface [0.5.3]#
- 在HuggingFaceEmbedding中添加切换进度条的选项 (#18404)
llama-index-embeddings-openai-like [0.1.0]#
- 添加OpenAILikeEmbedding,更新文档 (#18364)
llama-index-llms-bedrock-converse [0.4.15]#
- 功能:为Bedrock Converse添加多模态支持 (#18373)
- 支持 bedrock converse deepseek r1 (#18371)
llama-index-llms-ibm [0.3.4]#
- 缓存watsonx上下文窗口 (#18350)
llama-index-llms-openai [0.3.31]#
- 修复OpenAI JSON解码错误 (#18352)
- 启用OpenAI响应覆盖 (#18402)
llama-index-llms-vertex [0.4.6]#
- 为Gemini模型添加ImageBlock和TextBlock支持 (#18344)
llama-index-graph-stores-kuzu [0.7.0]#
- 升级至Kuzu 0.9.0版本 (#18382)
llama-index-indices-managed-llama-cloud [0.6.11]#
- 移除 org id 关键字参数 (#18355)
llama-index-readers-microsoft-sharepoint [0.5.1]#
- 修复Sharepoint文件夹路径编码问题 (#18357)
llama-index-readers-papers [0.3.2]#
- 修复:使用defusexml替代xml.etree (#18362)
llama-index-readers-stripe-docs [0.3.1]#
- 修复:使用defusexml替代xml.etree (#18362)
llama-index-readers-uniprot [0.1.0]#
- 添加UniProt阅读器 (#18356)
llama-index-readers-web [0.3.9]#
- 修复:使用defusexml替代xml.etree (#18362)
llama-index-retrievers-galaxia [0.1.0]#
- 新增GalaxiaRetriever (#18317)
llama-index-vector-stores-azureaisearch [0.3.7]#
- chore: 为语义配置添加标题和关键词 (#18354)
llama-index-vector-stores-lancedb [0.3.2]#
- 修复LanceDB中的覆盖与追加逻辑 (#18405)
llama-index-utils-workflow [0.3.1]#
- 修复自定义StopEvents的
draw_all_possible_flows功能 (#18347)
[2025-04-01]#
llama-index-core [0.12.28]#
- 添加代码执行智能体 + 文档 + 从零开始指南 (#18329)
- 修复
RichPromptTemplate的模板变量映射问题,并添加文档 (#18309) - 在
AgentWorkflow/ReActAgent/FunctionAgent/CodeActAgent中支持多模态智能体 (#18330) - 修复在新节点类中包含节点元数据的哈希计算问题 (#18303)
- 修复从
Context.from_dict加载时的Context._events_queue问题 (#18304) - 文档:添加Langfuse监测功能 (#18321)
llama-index-embeddings-fastembed [0.3.1]#
- 添加 providers 参数 (#18310)
llama-index-graph-stores-memgraph [0.3.1]#
- 将Memgraph集成更新至最新语法 (#18319)
llama-index-indices-managed-llama-cloud [0.6.10]#
- 修复构建客户端时的杂项问题 (#18323)
llama-index-llms-asi [0.1.0]#
- 添加ASI LLM集成 (#18292)
llama-index-llms-dashscope [0.3.2]#
- 更新DashScope集成,新增工具处理功能并升级依赖版本 (#18311)
llama-index-llms-ipex-llm [0.3.1]#
- 修复IpexLLM构造函数错误 (#18200)
llama-index-llms-litellm [0.4.1]#
- LiteLLM:增强了对工具流的支持,并支持多模态输入 (#18314)
llama-index-readers-obsidian [0.5.1]#
- 修复:防止符号链接导致的路径遍历问题 (#18320)
llama-index-readers-papers [0.3.1]#
- 修复:使文件名哈希更加健壮 (#18318)
llama-index-tools-mcp [0.1.1]#
- 修复了当
json_type为列表(包含多种可能类型)时的情况 (#18306)
llama-index-vector-stores-clickhouse [0.4.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-couchbase [0.3.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-deeplake [0.3.3]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-jaguar [0.3.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-lantern [0.3.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-nile [0.2.2]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-milvus [0.7.2]#
- [bug修复] 当索引已存在时Milvus创建索引 (#18315)
- 为milvus向量存储添加更多单元测试 (#18331)
llama-index-vector-stores-oracledb [0.2.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
llama-index-vector-stores-singlestoredb [0.3.1]#
- 修复:修补多个SQL注入漏洞 (#18316)
[2025-03-28]#
llama-index-core [0.12.27]#
- 通过延迟导入和加载nltk数据来优化初始导入 (#18289)
- 支持在工作流步骤签名中使用延迟类型提示 (#18225)
llama-index-llms-litellm [0.3.1]#
- 功能:为LiteLLM添加了工具调用支持 (#18235)
llama-index-llms-openai [0.3.29]#
- 新增
OpenAIResponses类以支持OpenAI的响应API (#18300) - 在重写方法中实现类型安全的结构化预测 (#18290)
llama-index-tools-dappier [0.1.0]#
- 添加Dappier实时搜索和AI推荐工具 (#18211)
llama-index-vector-stores-milvus [0.7.1]#
- Milvus向量存储:支持通过BM25进行全文搜索 (#18281)
- 修复Milvus向量存储以处理文本字段检索
[2025-03-26]#
llama-index-core [0.12.26]#
- 简化单智能体工作流中FunctionAgent/ReActAgent的使用 (#18227)
- 引入RichPromptTemplate,支持类似jinja的模板功能 (#18178)
- 为结构化llm重排序器添加实现 (#18216)
llama-index-embeddings-azure-openai [0.3.2]#
- 修复
AzureOpenAIEmbedding类中api_base和azure_deployment参数互斥的问题 (#18219) - 修复
AzureOpenAIEmbedding类中的api_base参数 (#18191)
llama-index-finetuning [0.3.1]#
- 更新SentenceTransformersFinetuneEngine以公开transformer检查点相关参数 (#18194)
llama-index-llms-dashscope [0.3.1]#
- 为dashscope llm添加
astream_chat和astream_complete功能 (#18196)
llama-index-llms-bedrock [0.3.8]#
- 弃用较旧的Google和Bedrock包 (#18210)
- 新增对Bedrock应用推理配置文件的支持 (#18213)
- 修复了基础模型ARN的提供程序解析问题 (#18283)
llama-index-llms-bedrock-converse [0.4.12]#
- 在 bedrock converse 中不要将 None 附加到聊天历史记录 (#18206)
- 新增apac bedrock llms (#18045)
- 在工具对话聊天中将聊天消息作为用户消息处理 (#18187)
llama-index-llms-gemini [0.4.13]#
- 确保
stream_complete能够累积文本并设置增量 (#18246)
llama-index-llms-google-genai [0.1.6]#
- 弃用较旧的Google和Bedrock包 (#18210)
- 修复Google GenAI工具描述 (#18242)
- 修复:在google-genai中支持anyof、optional和union (#18231)
llama-index-llms-openai [0.3.27]#
- 添加o1-pro支持 (#18207)
- 提升OpenAI LLM中的默认图像质量 (#18258)
llama-index-llms-text-generation-inference [0.3.2]#
- 修复TextGenerationInference中的
model_name验证错误,该参数不会从TGI端点请求并导致异常 (#18234)
llama-index-llms-vertx [0.4.4]#
- 弃用较旧的Google和Bedrock包 (#18210)
- Vertex LLM 不支持 FunctionCall 工具 (#18201)
llama-index-readers-file [0.4.7]#
- 功能:通过为pandas excel读取器添加列标题来改进数据检索 (#18233)
llama-index-storage-chat-store-dynomodb [0.3.1]#
- 功能:为DynamoDB聊天存储添加TTL支持 (#18084)
llama-index-storage-chat-store-redis [0.4.1]#
- 修复Redis聊天存储中协程未被等待的运行时警告 (#18274)
llama-index-vector-stores-milvus [0.6.1]#
- 修复Milvus过滤器中单引号的转义问题 (#18244)
- 加速Milvus的async_add (#18243)
llama-index-vector-stores-qdrant [0.6.0]#
- 更新qdrant以始终优先使用命名向量 (#18192)
- 升级qdrant版本的python依赖项 (#18273)
[2025-03-18]#
llama-index-core [0.12.25]#
- 确保在splitters中的CHUNKING_REGEX保留原始文本 (#18054)
- 无需llama-index-readers-file包即可使用SimpleDirectoryReader (#18173)
- 改进了 utils.py 和 exec_utils.py 中的注释和错误处理 (#18153)
- 在SemanticDoubleMergingSplitterNodeParser中添加
build_semantic_nodes_from_nodes功能 (#18114) - 修复:优化Context对象的内存管理 (#18170)
- 修复:允许在工作流结束后从上下文流式传输事件 (#18174)
- 功能:为Context类添加clear方法 (#18136)
llama-index-embeddins-clip [0.4.0]#
- 取消固定 ClipEmbedding 依赖项 (#18165)
llama-index-embeddings-netmind [0.1.0]#
- 添加netmind集成 (#18078)
llama-index-indices-managed-llama-cloud [0.6.9]#
- 修复LlamaCloudCompositeRetriever的kwargs参数 (#18141)
llama-index-llms-bedrock-converse [0.4.10]#
- Bug 修复:调用无参数的工具 (#18143)
- 为BedrockConverse的chat和achat方法添加令牌计数功能 (#18148)
llama-index-llms-contextual [0.0.1]#
- 修复上下文glm的问题 (#18145)
llama-index-llms-google-genai [0.1.4]#
- 生成式AI图像输出 (#18138)
llama-index-llms-langchain [0.6.1]#
- 在llama-index-llms-langchain中将已弃用的predict替换为invoke (#18169)
llama-index-llms-netmind [0.1.0]#
- 添加netmind集成 (#18078)
llama-index-llms-novita [0.1.0]#
- 添加NovitaAI llm类 (#18134)
llama-index-postprocessor-aimon-rerank [0.1.0]#
- 将AIMon重新排序器集成到LlamaIndex节点后处理器中 (#18087)
llama-index-readers-mongodb [0.3.1]#
- 功能(mongo阅读器): 字段提取器 (#18063)
llama-index-tools-vectara-query [0.3.1]#
- 更新Vectara工具以适配VectaraIndex的元数据变更 (#18126)
llama-index-vector-stores-azurecosmosnosql [1.3.2]#
- 修复:AzureCosmosNoSQL vector_store;基于
ref_doc_id进行删除 (#18120)
llama-index-vector-stores-pinecone [0.4.5]#
- 升级兼容的pinecone版本 (#18113)
[2025-03-13]#
llama-index-core [0.12.24]#
- 修复获取内容节点元数据重复模板的问题 (#18110)
- 移除了多模态向量存储/查询引擎中对多模态LLM的断言检查 (#18112)
- 修复:使run_step返回步骤生成的所有事件 (#18082)
- 修复(多模态节点): 在打开前检查图像路径是否为文件 (#18043)
llama-index-embeddings-google-genai [0.1.0]#
- Google genai 嵌入 (#18079)
llama-index-graph-stores-neptune [0.3.2]#
- 修复Neptune中upsert_triplet方法的TypeError (#18051)
llama-index-indices-managed-vectara [0.4.2]#
- 更新Vectara索引以返回文档级和页面级元数据 (#17976)
llama-index-llms-contextual [0.1.0]#
- 上下文生成模型 (#17913)
llama-index-llms-google-genai [0.1.3]#
- 为谷歌使用GenAI包 (#17939)
- 修复gemini角色 (#18108)
- 修复空模型元引用 (#18109)
- [BUG修复] Google genai vertexai 错误 (#18070)
llama-index-memory-mem0 [0.3.0]#
- Mem0Memory集成问题:需要更新以适应Mem0 API参数变更 (#18066)
llama-index-postprocessor-contextual-rerank [0.1.0]#
- 上下文重新排序器 (#18075)
llama-index-readers-elasticsearch [0.3.1]#
- 修复ElasticsearchReader的冗余问题 (#18106)
llama-index-readers-google [0.6.1]#
- 对重定向URI端口使用int类型 (#18097)
[2025-03-07]#
llama-index-core [0.12.23]#
- 新增了
merging_separator参数,用于在语义分割器中指定块合并分隔符 (#18027) - 在BaseWorkflowAgent类中添加支持运行单智能体工作流的功能 (#18038)
- 修复了在创建ReactAgent时未提供明确系统消息时引发的错误 (#18041)
- 为TokenTextSplitter添加keep_whitespaces字段 (#17998)
- 不要在AgentWorkflow中将原始工具输出转换为字符串 (#18006)
llama-index-embeddings-ollama [0.6.0]#
- 功能:为OllamaEmbedding类添加client_kwargs参数 (#18012)
llama-index-llms-anthropic [0.6.10]#
- Anthropic缓存与思考更新 (#18039)
- 允许缓存工具结果 (#18028)
- 支持缓存Anthropic系统提示(#18008)
- 确保恢复工作流实际可用 (#18023)
- [MarkdownNodeParser] 添加可自定义的标题路径分隔符 (#17964)
- 功能:当停止事件为自定义时,从run()返回事件实例 (#18001)
llama-index-llms-azure-openai [0.3.2]#
- AzureOpenAI: api_base 和 azure_endpoint 是互斥参数 (#18037)
- 为AzureOpenAI添加base_url (#17996)
llama-index-llms-bedrock-converse [0.4.8]#
- boto3模型中需要提供消息文本 (#17989)
llama-index-llms-ollama [0.5.3]#
- 将Ollama LLM中的request_timeout设为可选参数 (#18007)
llama-index-llms-mistralai [0.4.0]#
- 支持MistralAI的多模态内容块 (#17997)
llama-index-readers-file [0.4.6]#
- Bug修复:当安装了PyTorch时,在ImageVisionLLMReader的推理中使用
torch.no grad()(#17970)
llama-index-storage-chat-store-mongo [0.1.0]#
- 功能/Mongo聊天存储 (#17979)
llama-index-core [0.12.23]#
- 新增了
merging_separator参数,用于在语义分割器中指定块合并分隔符 (#18027) - 在BaseWorkflowAgent类中添加支持运行单智能体工作流的功能 (#18038)
- 修复了在创建ReactAgent时未提供明确系统消息时引发的错误 (#18041)
- 为TokenTextSplitter添加keep_whitespaces字段 (#17998)
[2025-02-28]#
llama-index-core [0.12.22]#
- 修复智能体工作流工具在最终响应中的调用跟踪 (#17968)
llama-index-readers-github [0.6.0]#
- 确保Github阅读器使用超时和重试参数 (#17959)
llama-index-readers-web [0.3.7]#
- chore: 更新FireCrawlWebReader集成以支持extract (#17957)
[2025-02-27]#
llama-index-core [0.12.21]#
- 修复:移除工作流测试中的警告 (#17943)
- 修复:在逐步运行工作流步骤时考虑步骤工作线程 (#17942)
- 功能:自动检测工作流类中的自定义开始和停止事件 (#17865)
- 功能/移除检索器工具模板覆盖 (#17909)
- 仅当实际检测到'Answer:'时才修改delta (#17901)
- 修复CitationQueryEngine初始化函数中的response_synthesizer问题 (#17897)
- 修复 ChatSummaryMemoryBuffer._summarize_oldest_chat_history (#17845)
- 修复:全面增强base64检测的鲁棒性 (#17930)
- 修复:当步骤执行异步工作时,逐步执行会中断 (#17914)
- 更安全的工作流取消 + 修复恢复上下文错误 (#17938)
llama-index-cli [0.4.1]#
- 修复:在执行shell命令前对用户输入进行转义处理 (#17953)
- llamaindex-cli 正确处理全局模式 (#17904)
llama-index-embeddings-gaudi [0.2.1]#
- 修复:移除cache_dir的Pydantic字段验证 (#17947)
llama-index-indices-managed-vectara [0.4.1]#
- 支持自定义 vectara_base_url (#17934)
llama-index-llms-anthropic [0.6.7]#
- 修复:调用Anthropic Messages API时tools参数不能为Null (#17928)
llama-index-llms-bedrock [0.3.4]#
- feat(bedrock): 添加Claude 3.7 Sonnet模型支持 (#17950)
llama-index-llms-bedrock-converse [0.4.7]#
- 功能(bedrock converse): 添加Meta Llama 3.3 70B指令模型支持 (#17915)
llama-index-llms-gemini [0.4.11]#
- 功能:将Gemini允许的最大模型温度调整为2.0 (#17886)
llama-index-llms-ibm [0.3.3]#
- 更新WatsonxLLM.metadata属性,以避免当model_limits字段不存在时出现验证错误 (#17839)
llama-index-llms-openai [0.3.24]#
- 添加 gpt-4.5-preview (#17954)
- 修复: 通过vLLM实现类似OpenAI的智能体流式传输 (#17927)
- 修复当助手消息为空时出现的"Invalid value for 'content': expected a string, got null." OpenAI错误 (#17921)
llama-index-multi-modal-llms-azure-openai [0.4.0]#
- 重构为在普通AzureOpenAI llm(也支持使用内容块的图像)之上的轻量级包装器,以避免代码重复 (#17951)
llama-index-multi-modal-llms-huggingface [0.4.2]#
- 为LlamaMultiModal类支持纯文本提示 (#17855)
llama-index-multi-modal-llms-openai [0.5.0]#
- 重构为在普通OpenAI llm之上的轻量级封装(也支持使用内容块处理图像),以避免代码重复 (#17951)
llama-index-postprocessor-ibm [0.1.0]#
- 功能:新增IBM Watsonx AI重新排序集成 (#17900)
llama-index-readers-web [0.3.6]#
- 修复:在KnowledgeBaseWebReader中遵守max_depth参数 (#17949)
llama-index-retrievers-tldw [0.0.1]#
- tl;dw 检索器的AI集成 (#17872)
llama-index-tools-valyu [0.1.0]#
- 功能:添加Valyu集成 (#17892)
llama-index-vector-stores-azureaisearch [0.3.6]#
- azureaisearch: 在创建索引时添加默认的mySemanticConfig作为名称 (#17908)
llama-index-vector-stores-databricks [0.4.0]#
- 构建:支持llama-index-vector-stores-databricks的python3版本为3.9且小于4.0 (#17937)
llama-index-vector-stores-duckdb [0.3.1]#
- 修复:在DuckDB向量存储中转义SQL查询参数 (#17952)
llama-index-vector-stores-elasticsearch [0.4.2]#
- 修复:修正adelete方法并添加delete_nodes到elasticsearch向量存储 (#17890)
[2025-02-25]#
llama-index-core [0.12.20]#
- 功能:为检索到的图像节点附加更多元数据 (#17868)
- 修复:当LLM响应不包含聊天消息时,FunctionAgent和ReActAgent会报错 (#17884)
- 修复:将嵌入函数转换为异步 (#17888)
llama-index-networks [0.6.0]#
- 修复:升级python-jose版本 (#17866)
llama-index-vector-stores-redis [0.5.0]#
- 修复: 更新redisvl至0.4.0版本 (#17902)
llama-index-llms-anthropic [0.6.6]#
- 修复:添加对Claude 3.7系列模型的支持 (#17905)
llama-index-readers-microsoft-outlook-emails [0.1.1]#
- 修复:microsoft_outlook_emails集成的导入路径不正确 (#17867)
llama-index-llms-vertex [0.4.3]#
- 修复:修复了带有工具调用的聊天消息错误映射到Vertex消息的问题 (#17893)
llama-index-llms-bedrock-converse [0.4.6]#
- 功能:添加对Claude 3.7 Sonnet模型的支持 (#17911)
[2025-02-17]#
llama-index-core [0.12.19]#
- 新增了同步/异步函数工具回调 (#16637)
- 调整了模板变量的正则表达式
llama-index-experimental [0.5.4]#
- 实验性自然语言检索器使用duck db (#15642)
llama-index-graph-stores-memgraph [0.3.0]#
- 修复memgraph上的版本问题 (#17842)
llama-index-indices-managed-llama-cloud [0.6.7]#
- 图像元数据测试 + 同步实现 (#17844)
llama-index-postprocessor-nvidia-rerank [0.4.2]#
- NVIDIARerank 添加 http_client 参数以传递自定义客户端 (#17832)
llama-index-llms-mistralai [0.3.3]#
- 支持mistral saba (#17847)
[2025-02-16]#
llama-index-core [0.12.18]#
- 改进提示助手多模态支持 (#17831)
- 保留
@dispatcher.span的返回类型 (#17817) - 静默nltk下载器 (#17816)
- 在
astream_chat()中保持对asyncio任务的引用 (#17812)
llama-index-indices-managed-llama-cloud [0.6.6]#
- 从llamacloud检索器返回图像节点时包含文件和页面元数据 (#17823)
- 改进llamacloud索引的错误日志 (#17827)
llama-index-indices-managed-vertexai [0.2.1]#
- 添加文本节点元数据 (#17814)
llama-index-llms-anthropic [0.6.5]#
- 功能: ✨ 新增支持 anthropic claude-3-5-haiku-latest 模型名称 (#17818)
llama-index-llms-openai [0.3.20]#
- 针对旧版o1模型的openai开发者消息修复 (#17833)
llama-index-readers-microsoft-outlook-emails [0.1.0]#
- 功能:新增Microsoft Outlook电子邮件阅读器集成 (#17829)
llama-index-tools-mcp [0.1.0]#
- 功能:添加mcp工具规范 (#17795)
llama-index-tools-playwright [0.1.1]#
- 修复:将Playwright浏览器工具从同步改为异步 (#17808)
llama-index-vector-stores-azureaisearch [0.3.5]#
- 扩展AzureAISearchVectorStore的筛选器选项 (#17811)
- azureaisearch: 在混合搜索中优先使用 hybrid_top_k 而非 similarity_top_k (#17612)
- azureaisearch: 为语义配置名称添加默认值None (#17807)
llama-index-vector-stores-mariadb [0.3.1]#
- MariaDB向量存储集成:新增调优参数和实用函数 (#17791)
[2025-02-11]#
llama-index-core [0.12.17]#
- 在聊天消息中新增了对AudioBlocks的支持(目前仅限OpenAI)(#17780)
- 修复:SimpleDirectoryReader元数据时区处理不一致问题 (#17724)
llama-index-agent-openai [0.4.4]#
- 在openai assistant智能体中新增了额外参数 (#17729)
- 避免在
aput_messages中出现异步竞争条件 (#17754)
llama-index-embeddings-siliconflow [0.2.1]#
- 为siliconflow llm和嵌入添加重试逻辑 (#17771)
llama-index-graph-rag-cognee [0.1.3]#
- Cognee集成版本更新 (#17769)
llama-index-graph-stores-neptune [0.3.1]#
- 修复:更新Neptune集成中的upsert_triplet方法 (#17727)
llama-index-llms-gemini [0.4.9]#
- 修复gemini工具选择问题 (#17747)
- 修复 Gemini 多轮工具调用问题 (#17764)
- chore: 为最新的gemini结构化生成添加测试 (#17762)
llama-index-llms-ibm [0.3.2]#
- 修复:更新
WatsonxLLM.stream_chat()以适应即将发布的ibm-watsonx-ai 1.2.7并避免错误。(#17772)
llama-index-llms-langchain [0.6.0]#
- 将llama-index-llms-langchain更新至最新langchain API - 移除弃用警告(#17770)
llama-index-llms-ollama [0.5.2]#
- Ollama 原生多模态支持与 ImageBlocks (#17759)
llama-index-llms-openai [0.3.19]#
- 为openai添加音频支持 (#17780)
llama-index-llms-openvino-genai [0.1.0]#
- 新增llama-index-llms-openvino-genai包 (#17714)
llama-index-llms-siliconflow [0.2.1]#
- 为siliconflow llm和嵌入添加重试逻辑 (#17771)
llama-index-readers-whisper [0.1.0]#
- 新增OpenAI Whisper阅读器 (#17778)
llama-index-retrievers-bm25 [0.5.2]#
- BM25Retriever:改进Unicode错误处理与编码灵活性 (#17643)
llama-index-retrievers-kendra [0.1.0]#
- 添加Kendra检索器 (#17760)
llama-index-tools-jira [0.1.0]#
- Jira工具集成 (#17763)
llama-index-tools-playwright [0.1.0]#
- 功能:新增playwright浏览器工具 (#17706)
llama-index-vector-stores-elasticsearch [0.4.1]#
- 删除查询缺少关键字后缀 (#17750)
[2025-01-05]#
llama-index-core [0.12.16]#
- 在执行ReAct时,对某些模型输出的前导空格更加宽容 (#17701)
- 修复
user_msg与chat_history智能体工作流输入问题 (#17690)
llama-index-embeddings-oci-data-science [0.1.0]#
- 新增OCI数据科学模型部署嵌入集成 (#17243)
llama-index-embeddings-vllm [0.1.0]#
- 为嵌入功能添加vLLM离线推理支持 (#17675)
llama-index-embeddings-voyageai [0.3.5]#
- 小型异步 voyageai 修复 (#17698)
llama-index-llms-gemini [0.4.7]#
- 支持gemini 2.0 (#17720)
- 功能:支持Gemini(google-generativeai)的基本函数调用 (#17696)
llama-index-llms-oci-data-science [0.1.0]#
- 添加OCI数据科学模型部署LLM集成 (#17241)
llama-index-llms-oci-genai [0.3.1]#
- 提供传递auth_file_location的选项,以便覆盖默认配置文件位置,即~/.oci/config (#17695)
llama-index-llms-ollama [0.5.1]#
- 修复:避免在流式传输时遗漏工具调用
llama-index-llms-openai [0.3.17]#
- 修复: O1中的max_tokens (#17703)
- o3 mini 支持 (#17689)
- 修复max_tokens,为OpenAI推理模型添加reasoning_effort参数 (#17694)
llama-index-readers-obsidian [0.5.0]#
- 改进的 Obsidian 阅读器 (#17699)
llama-index-tools-scrapegraph [0.1.1]#
- 功能:新增 scrapegraph 端点 (#17709)
[2025-01-31]#
llama-index-core [0.12.15]#
- 为FunctionCallingLLM.predict_and_call添加error_on_tool_error参数 (#17663)
- 从pydantic字段获取工具描述 (#17679)
- 修复: 使ctx._events_buffer可JSON序列化 (#17676)
- 功能:允许在简单目录读取器中排除空文件 (#17656)
- 改进markdown LLM输出解析 (#17577)
- 修复默认计划优化提示中的小拼写错误 (#17644)
llama-index-agent-openai [0.4.3]#
- 修复并行工具调用时重复来源的问题 (#17645)
llama-index-embeddings-text-embeddings-inference [0.3.2]#
- 为TextEmbeddingsInference添加endpoint参数 (#17598)
llama-index-llms-bedrock-converse [0.4.5]#
- 修复 bedrock 函数调用 (#17658)
llama-index-llms-cortex [0.1.0]#
- 新增Snowflake Cortex集成 (#17585)
llama-index-llms-fireworks [0.3.2]#
- llamaindex 现已支持 Deepseek-r1 (#17657)
- llamaindex 现已支持 fireworks 的 Deepseek-v3 模型 (#17518)
llama-index-llms-gemini [0.4.5]#
- 为异步调用添加聊天装饰器 (#17678)
llama-index-llms-llama-cpp [0.4.0]#
- 更新llama-cpp集成 + 文档 (#17647)
llama-index-vector-stores-azureaisearch [0.3.3]#
- 功能/修复:由于硬编码参数导致的Azure AI搜索混合语义搜索不可用问题 (#17683)
llama-index-vector-stores-pinecone [0.4.4]#
get_nodes()现在接受 include_values 参数以返回嵌入向量 (#17635)
[2025-01-25]#
llama-index-core [0.12.14]#
- 修复非OpenAI LLMs的智能体工作流交接问题 (#17631)
- 对多智能体工作流演示笔记本的小修复 (#17628)
llama-index-embeddings-bedrock [0.5.0]#
- 实现异步 bedrock 嵌入 (#17610)
llama-index-llms-bedrock-converse [0.4.4]#
- 修复 bedrock converse 中的提示堆叠问题 (#17613)
llama-index-llms-deepseek [0.1.0]#
- DeepSeek官方API LLM (#17625)
llama-index-readers-google [0.6.0]#
- GoogleDriveReader 支持文件扩展名 (#17620)
[2025-01-23]#
llama-index-core [0.12.13]#
- 修复关于MarkdownNodeParser中markdown级别与堆栈深度的header_path错误 (#17602)
- 高级文本转SQL示例行,为少样本提示添加行检索功能 (#17479)
- 使ReAct观察的消息角色可配置 (#17521)
- 修复在AgentWorkflow中重构工具的问题 (#17596)
- 支持在聊天模板中使用内容块 (#17603)
- 通过新增的
DocumentContextExtractor支持上下文检索功能 (#17367)
llama-index-graph-stores-memgraph [0.2.1]#
- 为Memgraph集成提供向量索引支持 (#17570)
llama-index-graph-stores-neo4j [0.4.6]#
- 改进了neo4j对象的连接并添加了一些测试 (#17562)
llama-index-indices-managed-llama-cloud [0.6.4]#
- 为复合检索添加框架集成 (#17536)
llama-index-llms-langchain [0.5.1]#
- 在流式传输时获取有效字符串 (#17566)
llama-index-llms-mistralai [0.3.2]#
- 更新mistral中的函数调用模型 (#17604)
llama-index-llms-openai [0.3.14]#
- 修复 openai.BadRequestError: 'content'参数值无效:预期应为字符串,但在工具调用时获取到null值 (#17556)
llama-index-readers-file [0.4.3]#
- 重构markdown_to_tups方法以更好地处理多级标题 (#17508)
llama-index-readers-web [0.3.5]#
- 功能:新增Agentql网页加载器 (#17575)
llama-index-tools-linkup-research [0.3.0]#
- 添加链接工具 (#17541)
llama-index-tools-notion [0.3.1]#
- 修复:修正NotionPageReader中"load_data"的输入参数 (#17529)
llama-index-vector-stores-pinecone [0.4.3]#
- 构建: 🆙 将 pinecone-client 替换为 pinecone 包 (#17587)
llama-index-vector-stores-postgres [0.4.2]#
- 添加对halfvec向量类型的支持 (#17534)
[2025-01-20]#
llama-index-core [0.12.12]#
- 功能:新增AgentWorkflow系统以支持单智能体及多智能体工作流 (#17237)
- 修复ImageNode中的图片路径验证问题 (#17558)
llama-index-indices-managed-vectara [0.4.0]#
- (重大变更) API迁移 (#17545)
llama-index-llms-anthropic [0.6.4]#
- 功能:支持直接处理Anthropic的PDF文件 (#17506)
llama-index-llms-fireworks [0.3.1]#
- llamaindex 现已支持 fireworks 的 Deepseek-v3 模型 (#17518)
llama-index-llms-stepfun [1.0.0]#
- 功能:添加stepfun集成 (#17514)
llama-index-multi-modal-llms-gemini [0.5.0]#
- 重构:将GeminiMultiModal改为围绕Gemini的轻量级封装 (#17501)
llama-index-postprocessor-longllmlingua [0.4.0]#
- 添加longllmlingua2集成 (#17531)
llama-index-readers-web [0.3.4]#
- 功能: Hyperbrowser 网页阅读器 (#17489)
[2025-01-15]#
llama-index-core [0.12.11]#
- 修复:MediaResource验证器中的错误 (#17509)
- 在MarkdownElementNodeParser中处理pandas将markdown转换为数据框时的错误 (#17511)
- bug修复: 重复的引用节点 (#17440)
- 通过更新MarkdownReader中的markdown格式修复了问题 #17397 (#17429)
- 功能:支持通过additional_kwargs向ChatMessage添加图片 (#17477)
- 功能:异步语义分割节点解析器 (#17449)
- 在schema llm提取器中增加更多异常处理 (#17432)
llama-index-agent-openai [0.4.2]#
- OpenAIAgentWorker的异步内存管理 (#17375)
llama-index-embeddings-huggingface [0.5.0]#
- 支持多模态HuggingFace嵌入 (#17463)
llama-index-embeddings-gemini [0.3.1]#
- 为gemini添加请求选项 (#17452)
llama-index-embeddings-opea [0.1.0]#
- 在Llama-Index中添加对OPEA LLMs的支持 (#16666)
llama-index-embeddings-upstage [0.4.1]#
- bug修复: 修正upstage嵌入可用模型映射 (#17460)
llama-index-graph-stores-neo4j [0.4.5]#
- 修复neo4j模式错误 (#17448)
llama-index-llms-gemini [0.4.3]#
- 为gemini添加请求选项 (#17452)
llama-index-llms-opea [0.1.0]#
- 在Llama-Index中添加对OPEA LLMs的支持 (#16666)
llama-index-llms-openai [0.3.13]#
- 调整OpenAI模型温度参数,使其可接受0到2之间的值 (#17453)
llama-index-multi-modal-llms-bedrock [0.1.0]#
- 新增多模态Bedrock集成 (#17451)
llama-index-postprocessor-bedrock-rerank [0.3.1]#
- 如果输入节点数量较少,请修改
top_n(#17374)
llama-index-readers-slack [0.3.1]#
- 新增支持仅允许公共Slack频道 (#17399)
llama-index-storage-chat-store-tablestore [0.1.0]#
- 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-docstore-tablestore [0.1.0]#
- 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-index-store-tablestore [0.1.0]#
- 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-kvstore-tablestore [0.1.0]#
- 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-vector-stores-mariadb [0.3.0]#
- 在MariaDB向量存储集成中支持MariaDB 11.7版本 (#17497)
llama-index-vector-stores-neptune [0.3.1]#
- 添加测试,修复缺失的方法 (#17485)
llama-index-vector-stores-qdrant [0.4.3]#
- 为Qdrant向量存储添加新操作符 (#17490)
[2024-12-31]#
llama-index-core [0.12.10]#
- 从schema llm提取器中移除断言 (#17425)
- 功能:支持使用typing.Annotated为FunctionTools添加参数描述 (#17411)
- 为ImageNode猜测image_mimetype (#17422)
llama-index-embeddings-nvidia [0.3.1]#
- NVIDIA 对 v2 嵌入和重排序 NIMs 的支持 #(17410)
llama-index-embeddings-openvino [0.5.1]#
- 更新OpenVINO软件包的依赖项 (#17419)
llama-index-multi-modal-llms-openai [0.4.2]#
- 为多模态LLM添加对gpt-4o-2024-08-06的支持 (#17405)
llama-index-packs-raptor [0.3.1]#
- 修复了llama_index.packs.raptor中的tree_traversal检索问题 (#17406)
llama-index-postprocessor-openvino-rerank [0.4.1]#
- 更新OpenVINO软件包的依赖项 (#17419)
llama-index-readers-file [0.4.2]#
- 从SimpleDirectoryReader的默认加载器中移除MarkdownReader (#17412)
llama-index-core [0.12.9]#
- 清理模式提取器中的类型提示 (#17394)
- 修复LLM Reranking处理异常LLM响应时的IndexError问题 (#17353)
llama-index-llms-bedrock-converse [0.4.3]#
- 修复Bedrock Converse工具使用的回归问题 (#17364)
llama-index-llms-sagemaker-endpoint [0.3.1]#
- 在SageMakerLLM中将
aws_region_name传递给get_aws_service_client()(#12000)
llama-index-postprocessor-voyageai-rerank [0.3.2]#
- 修复VoyageAIRerank构造函数中的截断问题 (#17343)
llama-index-readers-gitlab [0.3.1]#
- 修复:正确从Gitlab仓库添加blob文档 (#17392)
llama-index-readers-rss [0.3.2]#
- 修复rss中的小问题 (#17351)
llama-index-readers-web [0.3.3]#
- 修复: 防止
get_article_urls中出现无限递归 (#17360)
llama-index-vector-stores-azureaisearch [0.3.2]#
- azureaisearch: 为异步查询添加语义搜索模式支持 (#17335)
llama-index-vector-stores-azurecosmosnosql [1.3.1]#
- 修复storeindex cosmosnosql查询问题 - (BadRequest) (#17385)
llama-index-vector-stores-milvus [0.5.0]#
- 功能: Milvus异步支持 (#17378)
llama-index-vector-stores-opensearch [0.5.2]#
- 修复属性名称中的拼写错误 (#17365)
- 修复初始化异步AOSS向量存储时的bug (#17340)
llama-index-vector-stores-tablestore [0.2.2]#
- TablestoreVectorStore: 支持混合查询,修改部分文档。(#17366)
- TablestoreVectorStore 在将嵌入写入存储时检查其维度。(#17321)
llama-index-vector-stores-qdrant [0.4.2]#
- 针对
query_str为None的qdrant过滤器修复 (#17377)
llama-index-vector-stores-weaviate [1.3.1]#
- 为weaviate实现
client_kwargs["custom_batch"](#17347)
[2024-12-20]#
llama-index-core [0.12.8]#
- 修复文档序列化中的排除文本问题 (#17341)
- 修复awrite_response_to_history中缺失的aput (#17338)
llama-index-graph-rag-cognee [0.1.0]#
- Cognee集成 (#17314)
llama-index-llms-openai [0.3.12]#
- 调整o1函数调用需求 (#17328)
[2024-12-18]#
llama-index-core [0.12.7]#
- 修复:为langchain回调处理器添加超时设置 (#17296)
- 修复:使Document序列化事件更具向后兼容性 (#17312)
llama-index-embeddings-voyageai [0.3.4]#
- 为VoyageAI的嵌入模型暴露额外的关键字参数 (#17315)
llama-index-llms-keywordsai [0.1.0]#
- 新增KeywordsAI LLM (#16860)
llama-index-llms-oci-genai [0.4.0]#
- 添加OCI生成式AI工具调用支持 (#16888)
llama-index-llms-openai [0.3.11]#
- 支持新的o1模型 (#17307)
llama-index-postprocessor-voyageai-rerank [0.3.1]#
- VoyageAI 重排序器可选API密钥 (#17310)
llama-index-vector-stores-azureaisearch [0.3.1]#
- 改进异步搜索客户端处理 (#17319)
llama-index-vector-stores-azurecosmosmongo [0.4.0]#
- 修复CosmosDB插入时间戳的bug (#17290)
llama-index-vector-stores-azurecosmosnosql [1.3.0]#
- 修复CosmosDB插入时间戳的bug (#17290)
[2024-12-17]#
llama-index-core [0.12.6]#
- [错误修复] 确保在Workflow运行后,StopEvent会从Context._in_progress["_done"]中清除 (#17300)
- 修复:为langchain回调处理器添加超时设置 (#17296)
- 调整用户与工具在反应提示中的交互 (#17273)
- 重构:将文档重构为原生多模态 (#17204)
- 修复:使ImageDocument继承自Document,保持向后兼容性 (#17259)
- 修复:在ImageBlock中接受已base64编码的数据 (#17244)
- 修复(metrics): 修正了NDCG计算并更新了之前的测试 (#17236)
- 修复:在llama-index-core中移除对llama-index-legacy的依赖 (#17231)
- 优化了函数工具的默认文档生成功能 (#17208)
llama-index-embeddings-voyageai [0.3.3]#
- 添加对voyageai >=0.3.0版本的支持 (#17120)
- 介绍VoyageAI的新型多模态嵌入模型 (#17261)
- VoyageAI多模态嵌入与修正 (#17284)
llama-index-experimental [0.5.2]#
- 修复了实验性JSONalyzeQueryEngine的导入错误 (#17228)
llama-index-grapg-stores-neo4j [0.4.4]#
- 添加Cypher修正器并支持图模式过滤 (#17223)
- 为neo4j图添加超时配置 (#17267)
- 向neo4j增强模式添加文本和嵌入类型 (#17289)
llama-index-llms-anthropic [0.6.3]#
- 向anthropic添加内容块 (#17274)
- 不要向anthropic发送空白内容 (#17278)
- 为v0.41.0版本更新anthropic类型导入 (#17299)
- 修复Anthropic分词器协议(由Devin修复)(#17201)
llama-index-llms-bedrock [0.3.3]#
- 添加Amazon Bedrock防护栏 (#17281)
llama-index-llms-bedrock-converse [0.4.2]#
- 添加Amazon Bedrock防护栏 (#17281)
llama-index-llms-gemini [0.4.1]#
- 支持 Gemini 2.0 (#17249)
llama-index-llms-mistralai [0.3.1]#
- 为Mistral聊天消息添加工具调用ID/名称 (#17280)
llama-index-llms-nvidia [0.3.1]#
- 添加llama 3.3-70b作为支持函数调用的模型 (#17253)
llama-index-llms-openai [0.3.10]#
- 修复OpenAI工具调用的消息字典 (#17254)
llama-index-llms-text-generation-inference [0.3.1]#
- 修复: TGI上下文窗口 (#17252)
llama-index-multi-modal-llms-anthropic [0.3.1]#
- 在anthropic多模态llms中处理更多响应类型 (#17302)
llama-index-readers-confluence [0.3.1]#
- 支持Confluence cookies (#17276)
llama-index-vector-stores-milvus [0.4.0]#
- 从"vector_store_kwargs"中解析出"milvus_search_config" (#17221)
- 重构并优化milvus代码 (#17229)
llama-index-vector-stores-pinecone [0.4.2]#
- 处理检索到的Pinecone索引空值问题 (#17242)
llama-index-vector-stores-qdrant [0.4.1]#
- 功能:为MetadataFilter和QdrantVectorStore添加NOT过滤条件 (#17270)
llama-index-vector-stores-weaviate [1.3.0]#
- 为weaviate向量存储集成添加异步支持 (#17220)
[2024-12-09]#
llama-index-core [0.12.5]#
- 优化了函数工具的默认描述生成 (#17208)
llama-index-multi-modal-llms-azure-openai [0.3.2]#
- 修复: 放宽对OpenAI LLM依赖的固定版本限制 (#17210)
llama-index-postprocessor-pinecone-native-rerank [0.1.0]#
- 功能:集成Pinecone托管的重新排序器 (#17192)
llama-index-tools-scrapegraph [0.1.0]#
- 添加Scrapegraph工具集成 (#17238)
llama-index-vector-stores-postgres [0.3.3]#
- 将pgvector依赖项更新至版本0.3.6 (#17195)
[2024-12-08]#
llama-index-core [0.12.4]#
- 修复同步和异步结构化流处理 (#17194)
- 取消pydantic版本限制,允许2.8或更高版本 (#17193)
- 更新核心结构化预测流式处理,添加ollama结构化预测 (#17188)
- 在llama-index-core中升级tenacity依赖版本 (#17178)
llama-index-indices-managed-vectara [0.3.1]#
- 为Vectara的
as_query_engine添加Verbose参数 (#17176)
llama-index-llms-ollama [0.5.0]#
- 更新核心结构化预测流式处理,添加ollama结构化预测 (#17188)
llama-index-llms-perplexity [0.3.2]#
- 修复 perplexity 的消息格式 (#17182)
llama-index-readers-web [0.3.1]#
- 在WholeSiteReader中增加使用URI作为文档ID的功能 (#17187)
llama-index-vector-stores-chroma [0.4.1]#
- BUG 修复: llama-index-vectorstore-chromadb 适配 chromadb v0.5.17 (#17184)
[2024-12-06]#
llama-index-core [0.12.3]#
- 为SimpleDirectoryReader添加单元测试覆盖 (#17156)
- docs: 重写OpenAI图像推理示例,不使用多模态LLM (#17148)
- 修复(metrics): 修正了NDCG计算并添加了全面的测试用例 (#17126)
- 功能:改进ImageBlock (#17111)
- 移除ChatMemoryBuffer中遗忘的打印语句 (#17114)
- [修复] 将JSONalyzeQueryEngine移至实验性模块 (#17110)
llama-index-embeddings-clip [0.3.1]#
- 取消对clip模型的使用限制 (#17162)
llama-index-embeddings-openai [0.3.1]#
- 修复/openai-embbeding重试机制 (#17072)
llama-index-embeddings-text-embeddings-inference [0.3.1]#
- TEI中的正确授权令牌 (#17158)
llama-index-indices-managed-llama-cloud [0.6.3]#
- chore: 修复LlamaCloudRetriever中的httpx_client拼写错误 (#17101)
- 修复: LlamaCloudRetriever中错误的项目ID变量 (#17086)
llama-index-llms-bedrock-converse [0.4.1]#
- 将AWS Nova模型添加至Bedrock Converse (#17139)
llama-index-llms-ollama [0.4.2]#
- Ollama LLM: 为
_get_response_token_counts添加了TypeError异常处理(#17150)
llama-index-llms-sambanovasystems [0.4.3]#
- URL中OpenAI标识的变更 (#17161)
llama-index-memory-mem0 [0.2.1]#
- 修复 mem0 版本检查 (#17159)
llama-index-multi-modal-llms-openai [0.4.0]#
- 修复:使OpenAIMultiModal能够与新的ChatMessage配合工作 (#17138)
llama-index-postprocessor-bedrock-rerank [0.3.0]#
- 添加AWS Bedrock重新排序器 (#17134)
llama-index-readers-file [0.4.1]#
- 为unstructured reader更新文档ID (#17160)
llama-index-retrievers-duckdb-retriever [0.4.0]#
- 修复:在DuckDBRetriever中使用预处理语句 (#17092)
llama-index-vector-stores-postgres [0.3.2]#
- 无论架构状态如何,为pgvector创建表 (#17100)
llama-index-vector-stores-weaviate [1.2.4]#
- 在weaviate中将alpha设置为非空值 (#17163)
- 使Weaviate向量存储集成能够处理复杂属性 (#17129)
- 为Weaviate向量存储集成添加对
IS_EMPTY元数据过滤器的支持 (#17128) - 使Weaviate向量存储集成支持嵌套元数据过滤 (#17107)
[2024-11-26]#
llama-index-core [0.12.2]#
- 改进工作流的回溯日志记录 (#17040)
- 工作流的初始版本检查点功能 (#17006)
- 修复基础组件测试 (#17062)
- 将代码分割器测试标记为可选 (#17060)
- 更新贡献指南和开发依赖项 (#17051)
- 修复WorkflowDone异常的处理 (#17047)
llama-index-embeddings-vertex [0.3.1]#
- 从vertex依赖项中移除pyarrow (#16997)
llama-index-llms-ibm [0.3.1]#
- IBM watsonx.ai 完整集成与聊天集成 (#17034)
llama-index-llms-openai [0.3.2]#
- 修复了在特定场景下openai的tool_choice问题 (#17058)
llama-index-llms-perplexity [0.3.1]#
- 修复:更新perplexity模型,添加单元测试及小规模修正 (#17045)
llama-index-llms-vertex [0.4.1]#
- 从vertex依赖项中移除pyarrow (#16997)
llama-index-multi-modal-llms-huggingface [0.2.1]#
- 添加stream_chat并条件性地将AutoModelClass设置为MllamaForConditionalGeneration (#17031)
llama-index-readers-box [0.3.1]#
- 修复box api - mypy中断问题 (#17061)
llama-index-vector-stores-deeplake [0.3.2]#
- deeplake v3 向后兼容性 (#17057)
llama-index-vector-stores-mongodb [0.6.0]#
- MongoDB Atlas: 新增搜索索引命令及元数据过滤器的测试/示例 (#15265)
llama-index-vector-stores-postgres [0.3.1]#
- 在pgvector表创建过程中,执行其余初始化操作前检查模式是否存在 (#17063)
[2024-11-20]#
llama-index-core [0.12.1]#
- 暂时将pydantic固定在
<2.10版本 - 功能[react-multimodal]: 为MultimodalReActAgentWorker添加gemini图像支持 (#16992)
llama-index-indices-managed-llama-cloud [0.6.2]#
- llama-cloud-index 中的 api_key 拼写错误 (#17001)
llama-index-llms-openai [0.3.1]#
- 添加对最新gpt-4o模型的支持 (#17015)
llama-index-llms-zhipuai [0.2.1]#
- zhipuai 为API添加停止参数 (#16996)
llama-index-multi-modal-llms-mistralai [0.3.1]#
- 添加对mistral最新模型的支持 (#16991)
llama-index-multi-modal-llms-replicate [0.3.1]#
- 修复:修正replicate多模态包中的拼写错误 (#16998)
llama-index-vector-stores-pinecone [0.4.1]#
- 为pinecone添加get_nodes功能 (#17007)
[2024-11-17]#
注意:升级到v0.12.0版本需要同时更新所有其他llama-index-*软件包!每个软件包都已进行版本更新。以下仅列出重要变更。
llama-index-core [0.12.0]#
- 放弃对python3.8的支持,取消numpy版本固定 (#16973)
- 知识图谱/动态属性图三元组检索限制 (#16928)
llama-index-indices-managed-llama-cloud [0.6.1]#
- 为LlamaCloudIndex添加ID支持并更新from_documents逻辑,现代化API接口 (#16927)
- 上传文件时允许跳过等待数据处理的步骤 (#16934)
- 添加对文件端点的支持 (#16933)
llama-index-indices-managed-vectara [0.3.0]#
- 添加自定义提示参数 (#16976)
llama-index-llms-bedrock [0.3.0]#
- 针对消息/完成提示的小修复 (#15729)
llama-index-llms-bedrock-converse [0.4.0]#
- 修复bedrock converse的异步流式传输问题 (#16942)
llama-index-multi-modal-llms-nvidia [0.2.0]#
- 添加视觉语言模型支持 (#16751)
llama-index-readers-confluence [0.3.0]#
- 允许向Confluence客户端传递参数 (#16961)
llama-index-readers-github [0.5.0]#
- 为GithubRepositoryReader添加基础URL提取方法 (#16926)
llama-index-vector-stores-weaviate [1.2.0]#
- 允许传入Weaviate向量存储的kwargs参数 (#16954)
[2024-11-11]#
llama-index-core [0.11.23]#
- 修复流式处理和异常发生时的超时问题 (#16852)
- 新增 core.multi_modal_llms.generic_utils 的功能 (#16896)
- 为core.multimodal添加了文档字符串和单元测试 (#16872)
- 实际为数据摄取管道设置num_workers = num_cpus (#16803)
llama-index-embeddings-nvidia [0.2.5]#
- 跳过nvdev嵌入模型的模型验证 (#16883)
llama-index-embeddings-modelscope [0.3.0]#
- 新增对ModelScope嵌入模型的支持 (#16873)
llama-index-graph-stores-kuzu [0.4.0]#
- 重大变更:更新关系表标签命名规则,现有图表需要重新创建 (#16886)
llama-index-llms-anthropic [0.4.0]#
- 使用新的Anthropic令牌计数API (#16909)
llama-index-llms-bedrock-converse [0.3.8]#
- 为Bedrock Converse添加推理配置文件支持并加入Llama 3.1/3.2版本 (#16827)
llama-index-llms-nvidia [0.2.7]#
- 跳过nvdev llm模型的模型验证 (#16882)
llama-index-llms-modelscope [0.3.0]#
- 修复 modelscope 中 'pipeline' 在赋值前被引用的问题 (#16864)
llama-index-llms-ollama [0.3.6]#
- 修复在消息的额外参数中忽略工具调用的问题 (#16764)
llama-index-llms-siliconflow [0.1.0]#
- 添加siliconflow llm类 (#16861)
llama-index-postprocessor-tei-rerank [0.2.1]#
- 修复TEI重新排序器中的top-n参数 (#16884)
llama-index-readers-gitbook [0.2.0]#
- 添加GitBook阅读器 (#16862)
llama-index-readers-google [0.4.3]#
- 功能:添加相对文件路径到Google Drive (#16907)
llama-index-readers-file [0.3.0]#
- 升级版本并更新pypdf依赖至5.1.0 (#16905)
llama-index-vector-stores-azureaisearch [0.2.9]#
- 为Azure搜索添加用户代理头"llamaindex-python" (#16895)
llama-index-vector-stores-clickhouse [0.3.2]#
- 修复向量存储中的clickhouse初始化问题 (#16903)
[2024-11-05]#
llama-index-core [0.11.22]#
- 恢复对上下文聊天引擎中提示模板的支持 (#16821)
- 修复了生成子问题的JSON格式(双大括号问题)(#16820)
- 改进markdown分割器的元数据 (#16789)
- 修复空索引 + 生成合成器的问题 (#16785)
llama-index-embeddings-azure-inference [0.2.4]#
- 支持 api_version 和 Azure AI 模型推理服务 (#16802)
llama-index-embeddings-gemini [0.2.2]#
- 修复 await-async-embeddings (#16790)
llama-index-embeddings-siliconflow [0.1.0]#
- 添加siliconflow嵌入类 (#16753)
llama-index-indices-managed-vectara [0.2.4]#
- 热修复:链式查询配置 (#16818)
llama-index-llms-anthropic [0.3.9]#
- 将Anthropic Claude Haiku 3.5添加到支持的Claude模型列表中 (#16823)
llama-index-llms-azure-inference [0.2.4]#
- 支持 api_version 和 Azure AI 模型推理服务 (#16802)
llama-index-llms-bedrock [0.2.6]#
- 将Anthropic Claude Haiku 3.5添加到bedrock和bedrock-converse集成支持Claude模型列表中 (#16825)
llama-index-llms-bedrock-converse [0.3.7]#
- 将Anthropic Claude Haiku 3.5添加到bedrock和bedrock-converse集成支持Claude模型列表中 (#16825)
llama-index-llms-dashscope [0.2.5]#
- 对LLM元数据信息采用更宽松的定义 (#16830)
- 修复抽象方法签名错误 (#16809)
llama-index-llms-vllm [0.3.0]#
- 移除最新vllm的beam搜索参数 (#16817)
llama-index-postprocessor-colpali-rerank [0.1.0]#
- 添加ColPali作为重排序器 (#16829)
llama-index-postprocessor-siliconflow-rerank [0.1.0]#
- 添加siliconflow重排类 (#16737)
llama-index-readers-microsoft-onedrive [0.2.2]#
- 修复:为OneDrive阅读器添加required_exts参数 (#16822)
llama-index-vector-stores-chroma [0.3.0]#
- 支持最新chroma中过滤语法的重大变更 (#16806)
llama-index-vector-stores-pinecone [0.3.0]#
- 支持稀疏嵌入模型,修复无服务器Pinecone的删除功能 (#16819)
[2024-10-31]#
llama-index-core [0.11.21]#
- 修复了工作流
ctx.get()默认值设为None的问题 (#16756) - 修复了react智能体流式处理的各种问题 (#16755)
- 为查询管道添加单元测试 (#16749)
- 修复 _merge_ref_doc_kv_pairs 重复for循环的问题 (#16739)
- bug修复:在创建索引时判断节点是否为none (#16703)
- 修复了LLMRerank中default_parse_choice_select_answer_fn的解析问题 (#16736)
- 修复工作流的返回类型检查 (#16724)
- 修复冗长问题并使SQL错误信息更具参考性 (#16686)
llama-index-embeddings-siliconflow [0.1.0]#
- 添加siliconflow嵌入类 (#16753)
llama-index-graph-stores-falkordb [0.2.4]#
- 支持多图的FalkorDB (#16482)
llama-index-llms-anthropic [0.3.8]#
- 为Vertex AI添加额外的Claude模型名称 (#16692)
llama-index-llms-bedrock-converse [0.3.6]#
- 在Bedrock中添加了mistral large2模型ID (#16742)
- 改进Bedrock工具调用功能 (#16723)
- 为函数调用Bedrock对话模型添加新的sonnet3.5支持 (#16702)
- 更新Bedrock模型 (#16698)
llama-index-llms-bedrock [0.2.5]#
- 在Bedrock中添加了mistral large2模型ID (#16742)
- 为函数调用基础模型新增sonnet3.5支持 (#16702)
- 更新Bedrock模型 (#16698)
llama-index-llms-cohere [0.3.2]#
- 为Cohere的新Aya-Expanse模型添加支持 (#16733)
llama-index-llms-dashscope [0.2.3]#
- DashScope LLM 支持异步 (#16711)
llama-index-llms-nvidia [0.3.4]#
- 将nvidia/llama-3.2-nv-embedqa-1b-v1添加到支持模型列表中 (#16694)
llama-index-llms-pipeshift [0.1.0]#
- Pipeshift llamaindex集成 (#16610)
llama-index-memory-mem0 [0.1.0]#
- 添加Mem0作为内存 (#16708)
llama-index-multi-modal-llms-anthropic [0.2.4]#
- 修复Anthropic多模态依赖冲突,更新模型 (#16699)
llama-index-node-parser-docling [0.2.0]#
- 功能:将Docling阅读器和节点解析器升级至Docling v2版本 (#16677)
llama-index-postprocessor-nvidia-rerank [0.3.3]#
- 将nvidia/llama-3.2-nv-rerankqa-1b-v1添加到支持模型列表中 (#16695)
llama-index-postprocessor-siliconflow-rerank [0.1.0]#
- 添加siliconflow重排类 (#16737)
llama-index-readers-docling [0.2.0]#
- 功能:将Docling阅读器和节点解析器更新至Docling v2版本 (#16677)
llama-index-readers-microsoft-onedrive [0.2.1]#
- 功能:为OneDrive元数据添加权限 (#16646)
llama-index-storage-chat-store-azure [0.2.4]#
- 为Azure存储组件添加托管身份认证支持 (#16710)
- 在azure聊天存储中添加缺失的await语句 (#16645)
llama-index-storage-docstore-azure [0.2.1]#
- 为Azure存储组件添加托管身份认证支持 (#16710)
llama-index-storage-index-store-azure [0.3.1]#
- 为Azure存储组件添加托管身份认证支持 (#16710)
llama-index-storage-kvstore-azure [0.2.1]#
- 为Azure存储组件添加托管身份认证支持 (#16710)
llama-index-tools-openai-image-generation [0.3.0]#
- 使该工具更兼容这些选项,同时也为未来考虑 (#16676)
llama-index-tools-vectara-query [0.1.0]#
- 添加Vectara查询工具(#16722)
llama-index-vector-stores-azureaisearch [0.2.6]#
- 允许在Azure Vector Store中定义可检索字段 (#16766)
- 功能:新增get_nodes azureai搜索功能 (#16761)
- 在AISearch向量存储中添加了get_nodes()函数 (#16653)
- 修复AzureAISearchVectorStore中的ID查询问题(修复了通过node_ids删除节点的功能)(#16769)
llama-index-vector-stores-hnswlib [0.2.0]#
- 修复了持久化相关的问题,对HnswlibVectorStore的构建选项进行了重新排列并新增了选项 (#16673)
llama-index-vector-stores-opensearch [0.4.1]#
- 使用
os_async_client初始化OpensearchVectorClient (#16767)
llama-index-vector-stores-qdrant [0.3.3]#
- chore: 在qdrant get_nodes返回中添加embeddings (#16760)
llama-index-vector-stores-weaviate [1.1.3]#
- 如果未提供节点ID,则添加默认ID (#16671)
[2024-10-24]#
llama-index-core [0.11.20]#
- [实际上什么都没有!]
llama-index-embeddings-cohere [0.3.0]#
- 新增对Cohere多模态嵌入的支持 (#16667)
llama-index-embeddings-litellm [0.2.2]#
- 在litellmembedding中支持timeout参数 (#16532)
llama-index-graph-stores-neo4j [0.3.5]#
- 使neo4j模式刷新可配置 (#16651)
- 修复:在neo4j查询中接收来自dbms服务器的警告 (#16598)
llama-index-indices-managed-vectara [0.2.3]#
- 为vectara添加链式后处理 (#16627)
llama-index-llms-anthropic [0.3.7]#
- 更新Anthropic模型名称 (#16643)
llama-index-llms-openai [0.2.16]#
- 修复:当choice.delta为None时跳过处理 (#16636)
llama-index-llms-reka [0.1.0]#
- Reka llamaindex集成(llm和multi-modal-llm) (#15753)
llama-index-multi-modal-llms-reka [0.1.0]#
- Reka llamaindex集成(llm和multi-modal-llm) (#15753)
llama-index-postprocessor-dashscope-rerank [0.2.1]#
- 修复调用DashScopeRerank时未设置api_key参数的BUG (#16665)
llama-index-readers-microsoft-sharepoint [0.3.4]#
- 在访问令牌过期的情况下为请求添加重试逻辑 (#16662)
llama-index-storage-docstore-mongodb [0.2.1]#
- 修复了mongodb文档存储的缺失依赖错误 (#16654)
llama-index-storage-docstore-couchbase [0.1.0]#
- 为DocStore和IndexStore添加对Couchbase的支持 (#16509)
llama-index-storage-kvstore-couchbase [0.1.0]#
- 为DocStore和IndexStore添加对Couchbase的支持 (#16509)
llama-index-storage-index-store-couchbase [0.1.0]#
- 为IndexStore添加对Couchbase的支持 (#16509)
llama-index-storage-kvstore-mongodb [0.2.1]#
- 为mongodb kvstore添加缺失的依赖项 (#16632)
llama-index-utils-workflow [0.2.2]#
- 修复HITL的绘图问题 (#16624)
[2024-10-18]#
llama-index-core [0.11.19]#
- 在处理asyncio futures时正确抛出检测错误 (#16603)
- 修复:在PGRetriever中正确传递参数到VectorStoreQuery (#16586)
- 修复结构化预测的类型提示 (#16585)
- 添加retry_on_exceptions_with_backoff工具的异步版本 (#16374)
- 完善CONTRIBUTING.md文档 (#16548)
llama-index-embeddings-gaudi [0.1.0]#
- 在llama-index-embeddings-gaudi中添加与Intel Gaudi的嵌入集成 (#16521)
llama-index-embeddings-openvino [0.4.1]#
- 通过OpenVINO嵌入添加OpenClip支持 (#16554)
llama-index-graph-stores-neo4j [0.3.4]#
- 修复:在neo4j查询中移除来自dbms服务器的警告 (#16598)
llama-index-llms-ibm [0.2.2]#
- IBM watsonx.ai 聊天集成 + 函数调用支持 (#16589)
llama-index-llms-mistralai [0.2.7]#
- 添加对mistral最新模型的支持 (#16571)
llama-index-llms-openai [0.2.15]#
- 在function_calling方法中添加了对微调模型的检查 (#16568)
- 允许直接传入openai客户端 (#16560)
llama-index-llms-replicate [0.3.0]#
- 使用Replicate流式API (#16597)
llama-index-multi-modal-llms-openvino [0.1.0]#
- 添加OpenVINO多模态支持 (#16567)
llama-index-multi-modal-llms-zhipuai [0.1.0]#
- 添加智谱AI多模态LLM类 (#16551)
llama-index-readers-google [0.4.2]#
- 使用凭证文件中重定向URI的端口在GoogleDocsReader中运行本地服务器 (#16327)
llama-index-storage-chat-store-postgres [0.1.0]#
- 功能:Postgres聊天存储集成 (#16557)
llama-index-storage-chat-store-upstash [0.1.2]#
- 修复upstash聊天存储中的pydantic错误 (#16559)
llama-index-vector-stores-azurecosmosmongo [0.2.2]#
- 为Azure Cosmos DB Mongo向量存储添加DiskANN支持 (#16581)
llama-index-vector-stores-hnswlib [0.1.0]#
- Hnswlib 向量存储集成 (#16443)
llama-index-vector-stores-oceanbase [0.1.0]#
- 新增OceanBase的向量存储集成 (#16550)
llama-index-vector-stores-qdrant [0.3.2]#
- 在Qdrant向量数据库中增加了文本字段的可选名称。(#16576)
[2024-10-14]#
llama-index-core [0.11.18]#
- 在添加文本时处理PG检索中的空节点列表 (#16447)
- 改进text2sql解析功能 (#16445)
llama-index-embeddings-litellm [0.2.2]#
- 在litellmembedding中支持timeout参数 (#16532)
llama-index-embeddings-zhipuai [0.1.0]#
- 添加智谱AI嵌入类 (#16505)
llama-index-graph-stores-memgraph [0.1.0]#
- 添加Memgraph图存储集成 (#16345)
llama-index-llms-anthropic [0.3.6]#
- 添加对Anthropic Bedrock的支持 (#16478)
llama-index-llms-databricks [0.2.1]#
- 修复 Databricks 的 structured_predict (#16527)
llama-index-multi-modal-llms-anthropic [0.2.3]#
- 在AnthropicMultiModal中传播default_headers (#16496)
llama-index-readers-document360 [0.1.0]#
- 新增Document360Reader。由PLACE团队贡献。(#16305)
llama-index-readers-zyte-serp [0.1.0]#
- 添加Zyte搜索集成 (#16417)
llama-index-readers-upstage [0.2.1]#
- 新增了UpstageDocumentParseReader (#16099)
llama-index-storage-chat-store-azure [0.2.2]#
- 修复azure聊天存储中的异步方法 (#16531)
llama-index-tools-weather [0.1.0]#
- 修复格式化临时函数 (#16487)
llama-index-vector-stores-elasticsearch [0.3.3]#
- 在Elasticsearch集成中增加对自定义元数据关键字后缀的支持 (#16519)
llama-index-vector-stores-nile [0.1.0]#
- 为Nile(多租户Postgres)添加向量存储集成 (#16437)
llama-index-vector-stores-opensearch [0.4.0]#
- 使用高效的kNN过滤,修复当输入值为字符串数组时的过滤问题 (#16393)
llama-index-vector-stores-oracledb [0.1.4]#
- 针对Oracle向量存储集成的多项修复 (#16536)
llama-index-vector-stores-qdrant [0.3.1]#
- 修复Qdrant utils.py中的模型名称拼写错误 (#16494)
llama-index-vector-stores-timescalevector [0.2.2]#
- 修复timescale向量存储类 (#16539)
llama-index-vector-stores-weaviate [1.1.2]#
- 修复了来自Weaviate的相似度分数问题 (#16489)
[2024-10-08]#
llama-index-core [0.11.17]#
- 修复使用不规范的OpenAI类型时ChatMessage的序列化问题 (#16410)
llama-index-embeddings-gemini [0.2.1]#
- 修复gemini嵌入异步方法 (#16369)
llama-index-llms-gaudi [0.1.0]#
- 在llama-index-llms-gaudi中添加与Intel Gaudi的llm集成 (#16308)
llama-index-llms-openai [0.2.12]#
- 如果没有工具调用,则不包含工具调用 (#16408)
llama-index-multi-modal-llms-huggingface [0.1.1]#
- LlamaMultiModal 类错误修复 (#16413)
- MultiModal.HuggingFaceMultiModal: 修复错误和README文档,新增stream_complete功能 (#16376)
llama-index-node-parser-docling [0.1.0]#
- 功能:新增Docling阅读器和节点解析器 (#16406)
llama-index-readers-docling [0.1.0]#
- 功能:新增Docling阅读器和节点解析器 (#16406)
llama-index-readers-zyte-serp [0.1.0]#
- 添加Zyte搜索集成 (#16417)
llama-index-vector-stores-azureaisearch [0.2.2]#
- 修复(bug): 修复了确保metadata_mapping值的错误 (#16431)
llama-index-vector-stores-objectbox [0.1.0]#
- 新增ObjectBox向量存储集成 (#16314)
[2024-10-03]#
llama-index-core [0.11.16]#
- 将非字典类型的工具JSON函数参数视为空值(而非意外抛出错误)(#16316)
- 修复工作流的检测功能 (#16290)
- (临时解决方案) 在工作流追踪期间抑制令牌分离异常 (#16364)
- 当节点没有内容时发出警告而非错误 (#16354)
- 修复 BasePGRetriever 中的拼写错误,该错误导致图形上下文未被添加 (#16357)
llama-index-embeddings-vertex-endpoint [0.1.0]#
- 添加顶点端点嵌入 (#16351)
llama-index-llms-fireworks [0.2.1]#
- 在FireworksAI中添加对Meta 3.2模型的支持:1b-instruct;3b-instruct;11b-vision;90b-vision (#16349)
llama-index-multi-modal-llms-openai [0.2.1]#
- 重构OpenAI的
update_tool_calls(#16309)
llama-index-vector-stores-milvus [0.2.7]#
- 新增对嵌套MetadataFilters和FilterOperator.IS_EMPTY的支持 (#16329)
[2024-10-02]#
llama-index-core [0.11.15]#
- 为工作流上下文添加了
to_dict()、from_dict()和序列化器 (#16250) - 能够通过
handler.cancel_run()取消工作流执行 (#16320) - (重大变更) 重构
WorkflowHandler.run_step()方法,使用户需手动触发 Event 来启动工作流中的下一步 (#16277)
llama-index-embeddings-oracleai [0.1.0]#
- Oraclevs 集成 (#16161)
llama-index-experimental [0.4.0]#
- nudge-ft 包并添加一个扩展数据集的示例 (#16269)
llama-index-llms-anthropic [0.3.3]#
- 为Anthropic LLM添加提示缓存支持 (#16270)
llama-index-llms-gemini [0.3.6]#
- 在原始数据中输出Google Gemini LLMs的token使用情况 (#16313)
llama-index-llms-openai [0.2.10]#
- 将4o mini模型添加到Azure OpenAI模型库中 (#16335)
llama-index-llms-vertex [0.3.7]#
- 移除Vertex AI模型生成配置中的安全设置 (#16337)
llama-index-multi-modal-llms-huggingface [0.1.0]#
- LlamaIndex 多模态LLM集成:Huggingface (#16133)
llama-index-readers-minio [0.2.1]#
- 移除多余的打印语句并替换create tmpfile函数 (#16291)
llama-index-readers-oracleai [0.1.0]#
- Oraclevs 集成 (#16161)
llama-index-readers-web [0.2.3]#
- 添加Zyte网页阅读器 (#16197)
llama-index-retrievers-bm25 [0.4.0]#
- 升级依赖以支持最新bm25s版本 (#16339)
- 更新BM25检索器以使用元数据 (#16267)
llama-index-storage-chat-store-redis [0.3.2]#
- 修复redis聊天存储中异步客户端的检查 (#16321)
llama-index-storage-chat-store-upstash [0.1.0]#
- Upstash存储聊天商店集成 (#16237)
llama-index-vector-stores-milvus [0.2.6]#
- milvus: 始终设置self._collection (#16306)
- 修复使用index_config创建milvus集合的问题 (#16165)
llama-index-vector-stores-oracledb [0.1.0]#
- Oracle数据库集成 (#16161)
llama-index-vector-stores-postgres [0.2.6]#
- 在Postgres向量存储中支持TEXT_MATCH过滤操作符 (#16304)
[2024-09-26]#
llama-index-core [0.11.14]#
- 增强BaseIndex中的insert方法以支持可自定义的转换 (#16206)
- 确保ChatMemoryBuffer的聊天记录不会以TOOL消息开头 (#16214)
- 安全提示助手字符串格式化 (#16219)
- [功能请求] 支持最大并发 workflow_instance.run() 执行次数 (#16215)
- 工作流 + 人工参与循环专属支持 (#16220)
llama-index-graph-stores-neptune [0.2.2]#
- 修复传入提供的客户端时出现的NoneType对象错误 (#16174)
llama-index-llms-ollama [0.3.3]#
- 修复ollama聊天缺失
keep_alive的问题 (#16182)
llama-index-llms-vertex [0.3.6]#
- 修复顶点初始化函数 (#16216)
llama-index-multi-modal-llms-mistral [0.1.0]#
- 添加对Mistral多模态LLM的支持 (#16191)
llama-index-readers-jira [0.3.0]#
- 为Jira阅读器添加分页支持 (#16226)
llama-index-vector-stores-azurecosmosmongo [0.2.1]#
- Azure Cosmos DB 过滤向量搜索 (#16175)
llama-index-vector-stores-azurecosmosnosql [1.1.0]#
- Azure Cosmos DB 过滤向量搜索 (#16175)
llama-index-vector-stores-deeplake [0.2.1]#
- 添加缺失的JWT依赖项 (#16236)
[2024-09-24]#
llama-index-core [0.11.13]#
- 在属性图中检索时添加字符串节点表示的选项 (#16100)
- 改进Markdown元素节点解析器及结构化预测的可靠性 (#16172)
llama-index-graph-stores-neptune [0.2.1]#
- 修复了Neptune添加额外标签的问题 (#16137)
llama-index-llms-vertext [0.3.5]#
- 将safety_settings传递给send_message方法以修复设置未发送到API的问题 (#16153)
llama-index-readers-box [0.2.3]#
- 将box sdk升级至>=1.5.0版本 #16169
llama-index-storage-chat-store-dynamodb [0.2.0]#
- 为dynamodb添加异步支持 (#16139)
llama-index-storage-chat-store-redis [0.3.1]#
- 为redis添加异步支持 (#16139)
llama-index-vector-stores-astra-db [0.3.0]#
- 依赖AstraPy 1.5及以上版本以支持AstraDBVectorStore (#16164)
[2024-09-22]#
llama-index-core [0.11.12]#
- 修正了llm基类发出的Pydantic警告 (#16141)
- 使用JSON全局安全格式化字符串中的提示变量 (#15734)
- 在提示助手和响应合成器中考虑工具因素 (#16157)
llama-index-readers-google [0.4.1]#
- 功能:为Google Drive阅读器元数据添加驱动器链接 (#16156)
llama-index-readers-microsoft-sharepoint [0.3.2]#
- 为SharePoint阅读器添加required_exts选项 (#16152)
llama-index-vector-stores-milvus [0.2.4]#
- 支持在MilvusVectorStore中自定义用户模式 (#16151)
[2024-09-20]#
llama-index-core [0.11.11]#
- 在上下文聊天引擎中使用响应合成器 (#16017)
- 异步聊天记忆操作 (#16127)
- SQL查询添加Markdown响应选项 (#16103)
- 为SimpleDirectoryReader添加对Path的支持 (#16108)
- 更新聊天消息类以支持多模态 (#15969)
- 修复:
handler.stream_events()不产生 StopEvent (#16115) - 在向量检索器中传递
hybrid_top_k参数 (#16105)
llama-index-embeddings-elasticsearch [0.2.1]#
- 修复elasticsearch嵌入异步函数 (#16083)
llama-index-embeddings-jinaai [0.3.1]#
- 功能:为v3版本更新JinaEmbedding (#15971)
llama-index-experimental [0.3.3]#
- 增强Pandas查询引擎输出处理器 (#16052)
llama-index-indices-managed-vertexai [0.1.1]#
- 修复VertexAIIndex客户端中的错误参数 (#16080)
llama-index-node-parser-topic [0.1.0]#
- 基于MedGraphRAG论文添加TopicNodeParser (#16131)
llama-index-multi-modal-llms-ollama [0.3.2]#
- 为多模态ollama实现异步功能 (#16091)
llama-index-postprocessor-cohere-rerank [0.2.1]#
- 功能:在rerank中添加可配置的base_url字段 (#16050)
llama-index-readers-file [0.2.2]#
- 修复了bytesio导入缺失的错误 (#16096)
llama-index-readers-wordpress [0.2.2]#
- Wordpress: 允许控制是否检索页面和/或文章 (#16128)
- 修复问题16071:wordpress需要用户名和密码 (#16072)
llama-index-vector-stores-lancedb [0.2.1]#
- 修复与最新lancedb客户端的混合搜索问题 (#16057)
llama-index-vector-stores-mongodb [0.3.0]#
- 修复mongodb混合搜索top-k规格 (#16105)
[2024-09-16]#
llama-index-core [0.11.10]#
- 工作流的上下文/结果重构 (#16036)
- 添加稀疏嵌入抽象 (#16018)
- 修复Pydantic模型的数值验证 (#16008)
- 人机协作工作流示例 (#16011)
llama-index-callbacks-opik [0.1.0]#
- opik集成 (#16007)
llama-index-indices-managed-llama-cloud [0.3.1]#
- 使用图像节点更新llamacloud索引 (#15996)
llama-index-indices-managed-vectara [0.2.2]#
- 热修复:修复引文文本 (#16015)
llama-index-llms-huggingface [0.3.4]#
- 修复:当提供tokenizer作为参数时,HuggingFace LLM中出现的不必要警告问题 (#16037)
llama-index-readers-dashvector [0.3.0]#
- 修复:针对DashVector的新数据连接器适配 (#16028)
llama-index-readers-quip [0.1.0]#
- 添加Quip阅读器 (#16000)
llama-index-sparse-embeddings-fastembed [0.1.0]#
- 添加fastembed稀疏嵌入功能 (#16018)
llama-index-vector-stores-elasticsearch [0.2.1]#
- 修复:从Elasticsearch KVStore获取所有文档 (#16006)
llama-index-vector-stores-lancedb [0.2.3]#
- 临时限制lancedb版本 (#16045)
llama-index-vector-stores-postgres [0.2.5]#
- 在PGVectorStore上实现
get_nodes()(#16026)
[2024-09-12]#
llama-index-core [0.11.9]#
- 根据参数为检索查询引擎添加回调管理器 (#15990)
- 不要将系统提示从函数调用运行器传递到函数调用工作器 (#15986)
- 修复:当工具名称包含非英文字符时解析react输出报错的问题 (#15956)
llama-index-embeddings-alibabacloud-aisearch [0.1.0]#
- 新增四个阿里云AI搜索llama-index集成组件:rerank(重排序)、node_parser(节点解析器)、readers(读取器)、embeddings(嵌入模型)(#15934)
llama-index-experimental [0.3.1]#
- 添加NUDGE微调 (#15954)
llama-index-graph-stores-falkordb [0.2.2]#
- 更新FalkorDB客户端 (#15940)
llama-index-llms-openai [0.2.5]#
- 添加对o1 OpenAI模型的支持 (#15979)
- 将o1的force temp强制设为1.0 (#15983)
llama-index-node-parser-alibabacloud-aisearch [0.1.0]#
- 新增四个阿里云AI搜索与llamaindex的集成功能:重新排序、节点解析器、读取器和嵌入模块 (#15934)
llama-index-postprocessor-alibabacloud-aisearch-rerank [0.1.0]#
- 新增四个阿里云AI搜索llama-index集成组件:重排序器、节点解析器、读取器和嵌入模块 (#15934)
llama-index-readers-alibabacloud-aisearch [0.1.0]#
- 新增四个阿里云AI搜索与llamaindex的集成功能:重排序(rerank)、节点解析器(node_parser)、读取器(readers)、嵌入(embeddings) (#15934)
llama-index-vector-stores-opensearch [0.3.0]#
- 在OpenSearchVectorClient中区分同步和异步调用 (#15945)
llama-index-vector-stores-postgres [0.2.4]#
- 修复 PGVectorStore 中的属性错误 (#15961)
- 添加对引擎参数的支持 (#15951)
llama-index-vector-stores-wordlift [0.4.5]#
- 捕获nest_asyncio错误 (#15975)
[2024-09-09]#
llama-index-core [0.11.8]#
- 功能:为工作流步骤添加重试策略配置 (#15757)
- 在Langchain格式转换中添加文档ID (#15928)
llama-index-chat-store-dynamodb [0.1.0]#
- 添加DynamoDBChatStore (#15917)
llama-index-cli [0.3.1]#
- 修复RagCLI中的pydantic错误 (#15931)
llama-index-llms-alibabacloud-aisearch [0.1.0]#
- 添加llama-index的llms与alibabacloud_aisearch集成 (#15850)
llama-index-llms-mistralai [0.2.3]#
- 为默认的mistral模型添加对
large-latest的函数调用支持 (#15906)
llama-index-llms-vertex [0.3.4]#
- 将InternalServerError添加到重试装饰器中 (#15921)
llama-index-postprocessor-rankllm-rerank [0.3.0]#
- 使用新的重新排序器更新RankLLM (#15892)
llama-index-vector-stores-azurecosmosnosql [1.0.0]#
- 为Azure Cosmos DB NoSql添加向量存储支持 (#14158)
llama-index-readers-microsoft-sharepoint [0.3.1]#
- 修复SharePoint阅读器中的错误处理,修复下载文件的错误 (#15868)
llama-index-vector-stores-wordlift [0.4.4]#
- 为WordLift向量存储添加MetadataFilters支持 (#15905)
llama-index-vector-stores-opensearch [0.2.2]#
- 支持使用knn_score脚本进行Opensearch Serverless过滤查询 (#15899)
[2024-09-06]#
llama-index-core [0.11.7]#
- 将SentenceSplitter的secondary_chunking_regex设为可选参数 (#15882)
- 强制OpenAI结构化输出 (#15706)
- 修复断言错误,为流式智能体添加类型忽略 (#15887)
- 修复图像文档反序列化问题 (#15857)
llama-index-graph-stores-kuzu [0.3.2]#
- KuzuPropertyGraphStore 的 Bug 修复:允许在缺少数据块时仍可更新关系 (#15889)
llama-index-llms-bedrock-converse [0.3.0]#
- 从Bedrock Converse中移除了未使用的llama-index-llms-anthropic依赖项 (#15869)
llama-index-vector-stores-postgres [0.2.2]#
- 修复PGVectorStore以兼容最新版pydantic,更新pydantic导入 (#15886)
llama-index-vector-stores-tablestore [0.1.0]#
- 新增TablestoreVectorStore (#15657)
[2024-09-05]#
llama-index-core [0.11.6]#
- 将llama-deploy文档添加到文档构建中 (#15794)
- 添加O'Reilly课程手册 (#15845)
llama-index-readers-box [0.2.1]#
- 各种错误修复 (#15836)
llama-index-readers-file [0.2.1]#
- 更新ImageReader文件加载逻辑 (#15848)
llama-index-tools-box [0.2.1]#
- 各种错误修复 (#15836)
llama-index-vector-stores-opensearch [0.2.1]#
- 删除操作后刷新Opensearch索引 (#15854)
[2024-09-04]#
llama-index-core [0.11.5]#
- 移除属性图检索器中不必要的断言 (#15832)
- 使简单的属性图再次可序列化 (#15833)
- 修复核心组件上FastAPI返回类型的JSON模式 (#15816)
llama-index-llms-nvidia [0.2.2]#
- NVIDIA llm: 为starcoder模型添加Completion功能 (#15802)
llama-index-llms-ollama [0.3.1]#
- 添加ollama响应使用情况 (#15773)
llama-index-readers-dashscope [0.2.1]#
- 修复pydantic v2验证错误 (#15800)
llama-index-readers-discord [0.2.1]#
- 修复:在DiscordReader中将文档ID从整型转换为字符串 (#15806)
llama-index-vector-stores-mariadb [0.1.0]#
- 新增MariaDB向量存储集成包 (#15564)
[2024-09-02]#
llama-index-core [0.11.4]#
- 将mypy添加到核心 (#14883)
- 修复错误的检测字段/类型 (#15752)
- FunctionCallingAgent 修复bug并添加轻量级封装以创建智能体 (#15783)
- 添加文本到SQL高级工作流笔记本 (#15775)
- 修复:移除流式工作流后的上下文以重新启用流式处理 (#15776)
- 修复聊天记忆持久化和加载方法以使用正确的JSON格式 (#15545)
- 修复
_example_type类变量在Pydantic V2中被读取为私有属性的问题 (#15758)
llama-index-embeddings-litellm [0.2.1]#
- 为LiteLLMEmbedding添加dimensions参数,修复了一个无法从环境变量读取变量的错误 (#15770)
llama-index-embeddings-upstage [0.2.1]#
- 修复初始化UpstageEmbedding类时的upstage嵌入错误 (#15767)
llama-index-embeddings-sagemaker-endpoint [0.2.2]#
- 修复Sagemaker字段必填问题 (#15778)
llama-index-graph-stores-falkordb [0.2.1]#
- 修复包含特殊字符的关系upsert (#15769)
llama-index-graph-stores-neo4j [0.3.1]#
- 为neo4j lpg添加原生向量索引支持并修复向量过滤器 (#15759)
llama-index-llms-azure-inference [0.2.2]#
- 修复: GitHub 模型元数据检索 (#15747)
llama-index-llms-bedrock [0.2.1]#
- 更新
base.py以修复self问题 (#15729)
llama-index-llms-ollama [0.3.1]#
- 添加ollama响应使用情况 (#15773)
llama-index-llms-sagemaker-endpoint [0.2.2]#
- 修复Sagemaker字段必填问题 (#15778)
llama-index-multi-modal-llms-anthropic [0.2.1]#
- 支持在不了解文件名的情况下检测图像类型 (#15763)
llama-index-vector-stores-milvus [0.2.2]#
- 功能:为MilvusVectorStore实现get_nodes方法 (#15696)
llama-index-vector-stores-tencentvectordb [0.2.1]#
- 修复: tencentvectordb属性名称不一致问题 (#15733)
[2024-08-29]#
llama-index-core [0.11.3]#
- 重构:合并Context和Session以简化工作流API (#15709)
- chore: 停止在工作流文档中使用已弃用的
ctx.data(#15716) - 修复:当步骤引发时停止流式传输工作流事件 (#15714)
- 修复多模态LLM的llm_chat_callback功能 (#15700)
- chore: 提升工作流包(workflow package)的单元测试覆盖率 (#15691)
- 修复 SimpleVectorStore.from_persist_dir() 的行为 (#15534)
llama-index-embeddings-azure-openai [0.2.5]#
- 修复Azure嵌入的JSON序列化问题 (#15724)
llama-index-graph-stores-kuzu [0.3.0]#
- 添加KuzuPropertyGraphStore (#15678)
llama-index-indices-managed-vectara [0.2.1]#
- 新增了用户自定义函数重新排序器 (#15546)
llama-index-llms-mistralai [0.2.2]#
- 修复mistral llm中的
random_seed类型问题 (#15701)
llama-index-llms-nvidia [0.2.1]#
- 为NVIDIA LLM添加函数/工具调用支持 (#15359)
llama-index-multi-modal-llms-ollama [0.3.0]#
- 为多模态LLM更新ollama客户端依赖项 (#15702)
llama-index-readers-web [0.2.1]#
- 修复:Firecrawl抓取URL响应问题 (#15720)
llama-index-selectors-notdiamond [0.1.0]#
- 将Not Diamond添加到llama_index (#15703)
llama-index-vector-stores-milvus [0.2.3]#
- Milvus向量存储中的MMR (#15634)
- 功能:为MilvusVectorStore实现get_nodes方法 (#15696)
[2024-08-27]#
llama-index-core [0.11.2]#
- 修复了pydantic v2的工具模式生成功能以处理嵌套模型 (#15679)
- 功能:支持嵌套工作流的默认值 (#15660)
- 功能:允许FunctionTool仅使用异步函数 (#15638)
- 功能:允许从步骤流式传输事件 (#15488)
- 修复自动检索器pydantic缩进错误 (#15648)
- 使用工作流实现路由器查询引擎示例 (#15635)
- 新增使用工作流的多步骤查询引擎示例 (#15438)
- 为llm级别的操作启动追踪 (#15542)
- 在CodeSplitter的from_defaults初始化中传递callback_manager (#15585)
llama-index-embeddings-xinference [0.1.0]#
- 新增Xinference嵌入类 (#15579)
llama-index-llms-ai21 [0.3.3]#
- 集成功能:支持AI21函数调用 (#15622)
llama-index-llms-anthropic [0.3.0]#
- 通过GCP Vertex AI新增了对anthropic模型的支持 (#15661)
llama-index-llms-cerebras [0.1.0]#
- 实现Cerebras集成 (#15665)
llama-index-postprocessor-nvidia-rerank [0.3.1]#
- 修复下载的nim端点路径 (#15645)
- 修复llama-index-postprocessor-nvidia-rerank测试 (#15643)
llama-index-postprocessor-xinference-rerank [0.1.0]#
- 添加xinference重新排序类 (#15639)
llama-index-vector-stores-alibabacloud-opensearch [0.2.1]#
- 修复AlibabaCloudOpenSearchConfig中的set output fields问题 (#15562)
llama-index-vector-stores-azureaisearch [0.2.1]#
- 将azure-search-documents升级至2024-07-01 GA API版本,并在索引创建中新增对标量和二进制量化的支持 (#15650)
llama-index-vector-stores-neo4j [0.2.1]#
- Neo4j向量存储:使嵌入维度检查变为可选 (#15628)
llama-inde-vector-stores-milvus [0.2.1]#
- 更改Milvus的默认一致性级别 (#15577)
llama-index-vector-stores-elasticsearch [0.3.2]#
- 修复ElasticsearchStore键错误 (#15631)
[2024-08-23]#
llama-index-core [0.11.1]#
- 使用algolia替换客户端文档搜索功能 (#15574)
- 添加关于扩展工作流的文档 (#15573)
- 将嵌套工作流的方法重命名为add_workflows (#15596)
- chore: 修复核心代码库中的@step用法 (#15588)
- 修改ReflectionWorkflow示例笔记本中的validate函数,使用pydantic的model_validate_json方法 (#15567)
- 功能:允许同一工作流实例的并发运行 (#15568)
- 文档:从文档和示例中移除冗余的pass_context=True参数 (#15571)
llama-index-embeddings-openai [0.2.3]#
- 修复了使用pydantic v2时的openai嵌入问题 (#15576)
llama-index-embeddings-voyageai [0.2.1]#
- 升级voyage ai嵌入客户端依赖 (#15595)
llama-index-llms-vertex [0.3.3]#
- Vertex LLM: 正确将函数调用部分添加到提示中 (#15569)
- Vertex LLM:移除手动设置消息内容到函数调用的功能 (#15586)
[2024-08-22]#
llama-index-core [0.11.0]#
- 移除了已弃用的
ServiceContext-- 现在使用该功能会显示错误信息并附带迁移指南链接 - 移除了已弃用的
LLMPredictor-- 现在使用它会打印错误信息,任何现有的LLM都可以直接替换使用 - 将
pandas设为可选依赖项
Everything Else#
- 将所有包的次要版本号提升,以适配新版
llama-index-core
[2024-08-21]#
llama-index-core [0.10.68]#
- 移除基础元素节点解析器中的嵌套进度条 (#15550)
- 为工作流添加详尽文档 (#15556)
- 添加多策略工作流与反思笔记本示例 (#15445)
- 从核心移除openai依赖 (#15527)
- 改进令牌计数器以处理更多响应类型 (#15501)
- 功能:允许在不使用括号的情况下使用步骤装饰器 (#15540)
- 功能:工作流服务(又称嵌套工作流)(#15325)
- 在使用TextToCypher检索器时,移除了必须指定"allowed_query_fields"参数的要求(当使用"cypher_validator"时)(#15506)
llama-index-embeddings-mistralai [0.1.6]#
- 修复mistral嵌入的使用问题 (#15508)
llama-index-embeddings-ollama [0.2.0]#
- 使用ollama客户端进行嵌入处理 (#15478)
llama-index-embeddings-openvino [0.2.1]#
- 支持为openvino嵌入和重新排序器提供静态输入形状 (#15521)
llama-index-graph-stores-neptune [0.1.8]#
- 添加了代码以公开Neptune的结构化模式 (#15507)
llama-index-llms-ai21 [0.3.2]#
- 集成:支持AI21工具 (#15518)
llama-index-llms-bedrock [0.1.13]#
- 支持llama-index与Bedrock集成的令牌计数功能 (#15491)
llama-index-llms-cohere [0.2.2]#
- 功能:为achat cohere添加工具调用支持 (#15539)
llama-index-llms-gigachat [0.1.0]#
- 添加gigachat LLM支持 (#15313)
llama-index-llms-openai [0.1.31]#
- 修复OpenAI令牌使用报告中错误的类型 (#15524)
- 允许为OpenAI流式传输令牌计数 (#15548)
llama-index-postprocessor-nvidia-rerank [0.2.1]#
- 添加截断支持 (#15490)
- 更新至0.2.0版本,移除旧代码 (#15533)
- 将默认模型更新为nvidia/nv-rerankqa-mistral-4b-v3 (#15543)
llama-index-readers-bitbucket [0.1.4]#
- 修复从Bitbucket加载文件路径时的问题 (#15311)
llama-index-readers-google [0.3.1]#
- 增强Google Drive阅读器功能,提升可用性 (#15512)
llama-index-readers-remote [0.1.6]#
- 检查并清理远程读取器URL (#15494)
llama-index-vector-stores-qdrant [0.2.17]#
- 修复:在QdrantVectorStore中为稀疏向量设置IDF修饰符 (#15538)
[2024-08-18]#
llama-index-core [0.10.67]#
- 避免使用nltk 3.9版本,因为该版本存在问题 (#15473)
- docs: openllmetry 现在使用 instrumentation (#15443)
- 修复LangChain弃用警告 (#15397)
- 为Context添加get/set API并确保其协程安全 (#15152)
- docs: Cleanlab的烹饪手册 (#15352)
- 在
async_add()中传递kwargs参数以支持向量存储 (#15333) - 在结构化llm中转义json (#15404)
- 文档:新增使用工作流食谱的JSON分析查询引擎 (#15408)
llama-index-embeddings-gigachat [0.1.0]#
- 添加GigaChat嵌入 (#15278)
llama-index-finetuning [0.1.12]#
- 功能:集成Azure OpenAI微调 (#15297)
llama-index-graph-stores-neptune [0.1.7]#
- 公开了NeptuneQueryException并添加了额外的调试信息 (#15448)
- 修复了问题 #15414 并增加了对Neptune Analytics进行部分匹配的能力 (#15415)
- 使用反引号转义标签 (#15324)
llama-index-llms-cohere [0.2.1]#
- 功能:为Cohere添加工具调用功能 (#15144)
llama-index-packs-corrective-rag [0.1.2]#
- 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)
llama-index-packs-longrag [0.1.1]#
- 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)
llama-index-packs-self-discover [0.1.2]#
- 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)
llama-index-readers-preprocess [0.1.4]#
- 增强PreprocessReader (#15302)
[2024-08-15]#
llama-index-core [0.10.66]#
- 由于最新版本已从PyPI移除,临时回退nltk依赖项
- 新增带有工作流示例的引用查询引擎 (#15372)
- bug: 语义双重合并分割器会创建超过块大小的块 (#15188)
- 功能:使工作流中的
send_event()能够分配目标步骤 (#15259) - 使所有工作流事件可访问,如映射 (#15310)
llama-index-indices-managed-bge-m3 [0.1.0]#
- 添加BGEM3Index (#15197)
llama-index-llms-huggingface [0.2.7]#
- 更新HF的completion_to_prompt (#15354)
llama-index-llms-sambanova [0.1.0]#
- 为SambaNova(Sambaverse和SambaStudio)提供的Llama-index封装器 (#15220)
llama-index-packs-code-hierarchy [0.1.7]#
- 更新code_hierarchy.py添加php支持 (#15145)
llama-index-postprocessor-dashscope-rerank [0.1.4]#
- 修复调用llama-index-postprocessor-dashscope-rerank时的错误 (#15358)
llama-index-readers-box [0.1.2]#
- Box重构:Box文件到Llama-Index文档适配器 (#15314)
llama-index-readers-gcs [0.1.8]#
- GCSReader: 实现ResourcesReaderMixin和FileSystemReaderMixin (#15365)
llama-index-tools-box [0.1.1]#
- Box重构:Box文件到Llama-Index文档适配器 (#15314)
- AI智能体的Box工具 (#15236)
llama-index-vector-stores-postgres [0.1.14]#
- 检查hnsw索引是否存在 (#15287)
[2024-08-12]#
llama-index-core [0.10.65]#
- chore: 升级nltk版本 (#15277)
llama-index-tools-box [0.1.0]#
- AI智能体的Box工具 (#15236)
llama-index-multi-modal-llms-gemini [0.1.8]#
- 功能:为Gemini多模型添加default_headers (#15296)
llama-index-vector-stores-clickhouse [0.2.0]#
- chore: 停止在clickhouse集成中使用ServiceContext (#15300)
llama-index-experimental [0.2.0]#
- chore: 从实验包中移除ServiceContext的使用 (#15301)
llama-index-extractors-marvin [0.1.4]#
- 修复: MarvinMetadataExtractor功能并添加异步支持 (#15247)
llama-index-utils-workflow [0.1.1]#
- chore: 升级black版本 (#15288)
- chore: 升级nltk版本 (#15277)
llama-index-readers-microsoft-onedrive [0.1.9]#
- chore: 升级nltk版本 (#15277)
llama-index-embeddings-upstage [0.1.3]#
- chore: 升级nltk版本 (#15277)
llama-index-embeddings-nvidia [0.1.5]#
- chore: 升级nltk版本 (#15277)
llama-index-embeddings-litellm [0.1.1]#
- chore: 升级nltk版本 (#15277)
llama-index-legacy [0.9.48post1]#
- chore: 升级nltk版本 (#15277)
llama-index-packs-streamlit-chatbot [0.1.5]#
- chore: 升级nltk版本 (#15277)
llama-index-embeddings-huggingface [0.2.3]#
- 功能:添加了用于创建hf嵌入的多进程处理 (#15260)
[2024-08-09]#
llama-index-core [0.10.64]#
- 修复:子节点未继承源节点元数据的问题 (#15254)
- 工作流:修复装饰器中的验证错误 (#15252)
- 修复:在SQL检索器中去除'''sql(Markdown SQL代码片段)标记 (#15235)
llama-index-indices-managed-colbert [0.2.0]#
- 在Colbert集成中移除对ServiceContext的使用 (#15249)
llama-index-vector-stores-milvus [0.1.23]#
- 功能:支持Milvus集合属性 (#15241)
llama-index-llms-cleanlab [0.1.2]#
- 更新Cleanlab TLM支持的模型 (#15240)
llama-index-llms-huggingface [0.2.6]#
- 向HF聊天模板添加生成提示 (#15239)
llama-index-llms-openvino [0.2.1]#
- 向HF聊天模板添加生成提示 (#15239)
llama-index-graph-stores-neo4j [0.2.14]#
- Neo4jPropertyGraphStore.get() 检查id属性 (#15228)
llama-index-readers-file [0.1.33]#
- 修复 fs.open 路径类型 (#15226)
[2024-08-08]#
llama-index-core [0.10.63]#
- 在工作流装饰器中添加num_workers参数以解决步骤并发问题 (#15210)
- 将子问题查询引擎作为工作流笔记本示例 (#15209)
- 在工作流笔记本中添加Llamatrace (#15186)
- 在融合检索器中使用节点哈希而非节点文本来匹配节点 (#15172)
llama-index-embeddings-mistralai [0.1.5]#
- 处理mistral v1.0客户端 (#15229)
llama-index-extractors-relik [0.1.1]#
- 修复 relik 提取器跳过错误 (#15225)
llama-index-finetuning [0.1.11]#
- 处理mistral v1.0客户端 (#15229)
llama-index-graph-stores-neo4j [0.2.14]#
- 添加neo4j通用节点标签 (#15191)
llama-index-llms-anthropic [0.1.17]#
- 允许在Anthropic消息中包含图片 (#15227)
llama-index-llms-mistralai [0.1.20]#
- 处理mistral v1.0客户端 (#15229)
llama-index-packs-mixture-of-agents [0.1.2]#
- 更新包含工作流的Mixture Of Agents llamapack (#15232)
llama-index-tools-slack [0.1.4]#
- 修复了ToolSpec中的slack客户端引用 (#15202)
[2024-08-06]#
llama-index-core [0.10.62]#
- 功能:允许通过使用IS_EMPTY操作符来实现None元数据过滤 (#15167)
- 修复:在节点解析过程中尽可能使用父源节点到节点的关系 (#15182)
- 在融合检索器中使用节点哈希而非节点文本来匹配节点 (#15172)
llama-index-graph-stores-neo4j [0.2.13]#
- Neo4j属性图客户端批处理 (#15179)
llama-index-graph-stores-neptune [0.1.4]#
- 支持Amazon Neptune的PropertyGraphStore (#15126)
llama-index-llms-gemini [0.2.0]#
- 功能:为Gemini模型添加default_headers参数 (#15141)
llama-index-llms-openai [0.1.28]#
- OpenAI: 支持工具参数中的新严格功能 (#15177)
llama-index-vector-stores-opensearch [0.1.14]#
- 在Opensearch中添加对完整MetadataFilters的支持 (#15176)
llama-index-vector-stores-qdrant [0.2.15]#
- 功能:允许通过使用IS_EMPTY操作符来筛选None元数据 (#15167)
llama-index-vector-stores-wordlift [0.3.0]#
- 新增支持字段投影并更新示例Notebook (#15140)
[2024-08-05]#
llama-index-core [0.10.61]#
- 工作流文档的调整(记录
.send_event(),扩展示例)(#15154) - 创建上下文管理器以监控事件和跨度标签 (#15116)
- 键值索引存储更新为接受自定义集合后缀 (#15134)
- 使工作流上下文能够收集同一事件的多个实例 (#15153)
- 修复 AsyncStreamingResponse 的
__str__方法 (#15131)
llama-index-callbacks-literalai [1.0.0]#
- 功能(集成): 为Literal AI添加全局处理器(#15064)
llama-index-extractors-relik [0.1.0]#
- 添加relik知识图谱构造函数 (#15123)
llama-index-graph-stores-neo4j [0.1.12]#
- 修复查询时neo4j属性图的关系属性问题 (#15068)
llama-index-llms-fireworks [0.1.9]#
- 功能:为Fireworks llm添加default_headers(#15150)
llama-index-llms-gemini [0.1.12]#
- 修复:Gemini 1.0 Pro Vision 已正式弃用,将默认模型切换为 gemini-1.5-flash (#15000)
llama-index-llms-paieas [0.1.0]#
- 为阿里云PAI-EAS添加LLM支持 (#14983)
llama-index-llms-predibase [0.1.7]#
- 修复HuggingFace托管的微调适配器的Predibase集成 (#15130)
[2024-02-02]#
llama-index-core [0.10.60]#
- 更新
StartEvent的使用方式,允许通过点符号访问属性 (#15124) - 新增GraphRAGV2笔记本 (#15119)
- 修复了DynamicLLMPathExtractor中的小错误以及默认输出解析器不工作的问题 (#15085)
- 更新工作流超时的类型定义 (#15102)
- 修复(sql_wrapper): 当不存在外键时不提及外键 (#14998)
llama-index-graph-stores-neo4j [0.2.11]#
- 修复neo4j检索关系属性的问题 (#15111) (#15108)
llama-index-llms-vllm [0.1.9]#
- 更新base.py以使用@atexit进行清理 (#15047)
llama-index-vector-stores-pinecone [0.1.9]#
- 升级Pinecone客户端依赖版本 (#15121)
llama-index-vector-stores-redis [0.2.1]#
- 处理Redis向量存储的嵌套MetadataFilters (#15093)
llama-index-vector-stores-wordlift [0.2.0]#
- 更新WordLift向量存储以使用新的客户端包 (#15045)
[2024-07-31]#
llama-index-core [0.10.59]#
- 引入
Workflow实现事件驱动的编排功能 (#15067) - 为上下文聊天引擎添加了功能,允许将之前的片段插入到当前上下文窗口中 (#14889)
- 文档中添加了MLflow集成 (#14977)
- 文档(literalai): 将Literal AI集成添加到文档中 (#15023)
- 扩展查询管道的跨度覆盖范围 (#14997)
- 在
asyncio_run()期间使重新抛出的错误跳过构造函数 (#14970)
llama-index-embeddings-ollama [0.1.3]#
- 添加适当的异步嵌入支持
llama-index-embeddings-textembed [0.0.1]#
- 添加对textembed嵌入的支持 (#14968)
llama-index-graph-stores-falkordb [0.1.5]#
- 初步实现FalkorDBPropertyGraphStore (#14936)
llama-index-llms-azure-inference [0.1.1]#
- 修复:Azure AI推理集成对工具的支持 (#15044)
llama-index-llms-fireworks [0.1.7]#
- 更新默认模型以支持函数调用功能 (#15046)
llama-index-llms-ollama [0.2.2]#
- 切换ollama函数调用功能 (#14972)
- 为Ollama添加函数调用功能 (#14948)
llama-index-llms-openllm [0.2.0]#
- 更新至 OpenLLM 0.6 (#14935)
llama-index-packs-longrag [0.1.0]#
- 添加了一个实现LongRAG的LlamaPack (#14916)
llama-index-postprocessor-tei-rerank [0.1.0]#
- 通过文本嵌入接口支持重新排序器 (#15063)
llama-index-readers-confluence [0.1.7]#
- confluence reader 排序认证参数优先级 (#14905)
llama-index-readers-file [0.1.31]#
- UnstructuredReader 使用文件名作为ID (#14946)
llama-index-readers-gitlab [0.1.0]#
- 添加GitLab阅读器集成 (#15030)
llama-index-readers-google [0.2.11]#
- 修复平均评分显示为浮点数而非整数的问题 (#15070)
llama-index-retrievers-bm25 [0.2.2]#
- 在bm25分词中使用适当的词干提取器 (#14965)
llama-index-vector-stores-azureaisearch [0.1.13]#
- 修复删除不存在索引的问题 (#14949)
llama-index-vector-stores-elasticsearch [0.2.5]#
- 为稀疏策略禁用嵌入功能 (#15032)
llama-index-vector-stores-kdbai [0.2.0]#
- 更新混合搜索的默认稀疏编码器 (#15019)
llama-index-vector-stores-milvus [0.1.22]#
- 增强MilvusVectorStore的灵活索引管理功能,支持覆盖写入 (#15058)
llama-index-vector-stores-postgres [0.1.13]#
- 新增选项以使用HNSW索引构建PGVectorStore (#15024)
[2024-07-24]#
llama-index-core [0.10.58]#
- 修复:Token计数器预期response.raw为字典,实际得到ChatCompletionChunk (#14937)
- 根据智能体步骤返回适当的工具输出,而非全部 (#14885)
- 异步结构化流的小错误修复 (#14925)
llama-index-llms-fireworks [0.1.6]#
- 支持fireworks ai llama3.1 (#14914)
llama-index-multi-modal-llms-anthropic [0.1.6]#
- 将Claude 3.5 Sonnet添加到多模态LLM (#14932)
llama-index-retrievers-bm25 [0.2.1]#
- 🐞 修复(集成): BM25Retriever持久化缺少参数similarity_top_k (#14933)
llama-index-retrievers-vertexai-search [0.1.0]#
- 用于Vertex AI搜索的Llamaindex检索器 (#14913)
llama-index-vector-stores-deeplake [0.1.5]#
- 优化了
deeplake.get_nodes()的性能 (#14920)
llama-index-vector-stores-elasticsearch [0.2.3]#
- Bug修复:在使用稀疏策略时,不要将空的嵌入列表传递给elasticsearch存储 (#14918)
llama-index-vector-stores-lindorm [0.1.0]#
- 添加对Lindorm的向量存储集成 (#14623)
llama-index-vector-stores-qdrant [0.2.14]#
- 功能: 允许限制检索元素数量(qdrant) (#14904)
[2024-07-22]#
llama-index-core [0.10.57]#
- 为VectorContextRetrieve添加可选参数similarity_score (#14831)
- 为KGs添加属性提取功能(使用属性名称和可选描述)(#14707)
- 能够将输出类附加到LLM模型 (#14747)
- 为工具调用/结构化提取添加流式处理功能 (#14759)
- 修复了在复制/序列化时移除私有变量的问题 (#14860)
- 修复在数据摄取管道中向向量存储发送空数组的问题 (#14859)
- 优化数据摄取管道的去重功能 (#14858)
- 为VectorContextRetriever添加可选参数similarity_score (#14831)
llama-index-llms-azure-openai [0.1.10]#
- Bug修复: 使用自定义azure_ad_token_provider时AzureOpenAI可能失败 (#14869)
llama-index-llms-bedrock-converse [0.1.5]#
- 功能: ✨ 在BedrockConverse中实现异步功能 (#14326)
llama-index-llms-langchain [0.3.0]#
- 将部分依赖项设为可选
- 在集成中升级langchain版本 (#14879)
llama-index-llms-ollama [0.1.6]#
- Bug修复: ollama流式响应 (#14830)
llama-index-multi-modal-llms-anthropic [0.1.5]#
- 对齐依赖项 (#14850)
llama-index-readers-notion [0.1.10]#
- 更新Notion阅读器以处理重复页面、数据库+页面ID (#14861)
llama-index-vector-stores-milvus [0.1.21]#
- 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)
llama-index-vector-stores-mongodb [0.1.8]#
- MongoDB Atlas向量搜索:增强的元数据过滤功能 (#14856)
llama-index-vector-stores-opensearch [0.1.13]#
- 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)
llama-index-vector-stores-pinecone [0.1.8]#
- 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)
llama-index-vector-stores-postgres [0.1.12]#
- 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()功能 (#14800)
llama-index-vector-stores-weaviate [1.0.2]#
- 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)
[2024-07-19]#
llama-index-core [0.10.56]#
- 修复了_apply_node_postprocessors函数需要QueryBundle的问题 (#14839)
- 添加上下文专用响应合成器 (#14439)
- 修复AgentRunner中AgentRunStepStartEvent的派发 (#14828)
- 改进ReAct智能体中的输出格式系统提示(#14814)
- 从输出解析工具中移除双花括号替换功能 (#14735)
- 更新 simple_summarize.py (#14714)
llama-index-tools-azure-code-interpreter [0.2.0]#
- chore: 从环境变量中读取 AZURE_POOL_MANAGEMENT_ENDPOINT (#14732)
llama-index-llms-azure-inference [0.1.0]#
- Azure AI 推理集成 (#14672)
llama-index-embeddings-azure-inference [0.1.0]#
- Azure AI 推理集成 (#14672)
llama-index-llms-bedrock-converse [0.1.5]#
- 功能: ✨ 在BedrockConverse中实现异步功能 (#14326)
llama-index-embeddings-yandexgpt [0.1.5]#
- 为YandexGPT嵌入模型新增集成支持 (#14313)
llama-index-tools-google [0.1.6]#
- 更新gmailtoolspec的search_messages工具的文档字符串 (#14840)
llama-index-postprocessor-nvidia-rerank [0.1.5]#
- 添加对nvidia/nv-rerankqa-mistral-4b-v3的支持 (#14844)
llama-index-embeddings-openai [0.1.11]#
- 修复OpenAI Embedding异步客户端bug (#14835)
llama-index-embeddings-azure-openai [0.1.11]#
- 修复Azure OpenAI LLM和Embedding异步客户端bug (#14833)
llama-index-llms-azure-openai [0.1.9]#
- 修复Azure OpenAI LLM和Embedding异步客户端bug (#14833)
llama-index-multi-modal-llms-openai [0.1.8]#
- 添加对gpt-4o-mini的支持 (#14820)
llama-index-llms-openai [0.1.26]#
- 添加对gpt-4o-mini的支持 (#14820)
llama-index-llms-mistralai [0.1.18]#
- 添加对mistralai nemo模型的支持 (#14819)
llama-index-graph-stores-neo4j [0.2.8]#
- 修复在neo4j属性图中使用sanitize时的bug (#14812)
- 在neo4j的get_triples中添加过滤器 (#14811)
llama-index-vector-stores-azureaisearch [0.1.12]#
- 功能:为azureaisearch添加嵌套过滤器 (#14795)
llama-index-vector-stores-qdrant [0.2.13]#
- 功能:为Qdrant向量存储添加NOT IN过滤器 (#14791)
llama-index-vector-stores-azureaisearch [0.1.11]#
- 功能:添加对azureaisearch支持的条件 (#14787)
- 功能:支持azureaisearch收集字符串 (#14712)
llama-index-tools-weather [0.1.4]#
- 修复OpenWeatherMapToolSpec.forecast_tommorrow_at_location (#14745)
llama-index-readers-microsoft-sharepoint [0.2.6]#
- 遵循odata.nextLink (#14708)
llama-index-vector-stores-qdrant [0.2.12]#
- 为QdrantVectorStore添加量化选项 (#14740)
llama-index-vector-stores-azureaisearch [0.1.10]#
- 功能:改进azureai搜索删除功能 (#14693)
llama-index-agent-openai [0.2.9]#
- 修复:OpenAI API中的附件需要工具 (#14609)
llama-index-readers-box [0.1.0]#
- 新集成
llama-index-embeddings-fastembed [0.1.6]#
- 修复fastembed的Python版本问题 (#14710)
[2024-07-11]#
llama-index-core [0.10.55]#
- 多项文档更新
llama-index-llms-cleanlab [0.1.1]#
- 为Cleanlab LLM集成添加用户配置 (#14676)
llama-index-readers-file [0.1.30]#
- 多个并发pptx读取器对同一个临时文件名的竞争问题 (#14686)
llama-index-tools-exa [0.1.4]#
- Exa搜索工具的入门指南和示例笔记本变更 (#14690)
[2024-07-10]#
llama-index-core [0.10.54]#
- 修复:更新简单向量存储过滤器的操作逻辑 (#14674)
- 添加AgentOps集成 (#13935)
llama-index-embeddings-fastembed [0.1.5]#
- chore: 更新Qdrant fastembed包中所需的Python版本 (#14677)
llama-index-embeddings-huggingface-optimum-intel [0.1.6]#
- 升级版本 llama-index-embeddings-huggingface-optimum-intel (#14670)
llama-index-vector-stores-elasticsearch [0.2.2]#
- 新增了对自定义索引设置的支持 (#14655)
llama-index-callbacks-agentops [0.1.0]#
- 初始版本发布
llama-index-indices-managed-vertexai [0.0.2]#
- 修复 #14637 需要更新llamaindex托管的Vertex AI索引。(#14641)
llama-index-readers-file [0.1.29]#
- 修复简单文件读取器中的非结构化导入问题 (#14642)
[2024-07-08]#
llama-index-core [0.10.53]#
- 修复了在llama智能体中处理
llm.predict_and_call反应使用的问题 (#14556) - 在
ReActAgent调用super().__init__时添加缺失的verbose参数 (#14565) - 修复当使用IngestionPipeline并行时
llama-index-core\llama_index\core\node_parser\text\utils.py的错误 (#14560) - 弃用
KnowledgeGraphIndex,调整文档 (#14575) - 修复
ChatSummaryMemoryBuffer无法总结带有工具调用的聊天历史记录的问题 (#14563) - 新增
DynamicLLMPathExtractor功能,支持通过LLM实时推断模式进行实体检测 (#14566) - 添加云文档转换器 (#14608)
- 修复KnowledgeGraphIndex参数'kg_triple_extract_template'的拼写错误 (#14619)
- 修复:由于unstructured的变更更新
UnstructuredElementNodeParser(#14606) - 更新ReAct步骤以解决生成不完整的问题 (#14587)
llama-index-callbacks-promptlayer [0.1.3]#
- 在请求成功时记录条件日志到promptlayer (#14632)
llama-index-embeddings-databricks [0.1.0]#
- 添加与Databricks的集成嵌入功能 (#14590)
llama-index-llms-ai21 [0.3.1]#
- 修复AI21包中MessageRole从错误包导入的问题 (#14596)
llama-index-llms-bedrock [0.1.12]#
- 在Bedrock AnthropicProvider中处理空响应 (#14479)
- 为Bedrock InvokeAPI添加claude 3.5 sonnet支持 (#14594)
llama-index-llms-bedrock-converse [0.1.4]#
- 修复Bedrock Converse的工具使用块问题,当存在多个连续函数调用时 (#14386)
llama-index-llms-optimum-intel [0.1.0]#
- 在llama-index-integration中添加支持Intel IPEX后端的优化 (#14553)
llama-index-llms-qianfan [0.1.0]#
- 添加百度千帆大模型 (#14414)
llama-index-llms-text-generation-inference [0.1.4]#
- 修复:在模型名称查找中崩溃的LLMMetadata问题 (#14569)
- 从text-embeddings-inference中移除hf embeddings依赖项 (#14592)
llama-index-llms-yi [0.1.1]#
- 更新yi llm的上下文窗口 (#14578)
llama-index-readers-file [0.1.28]#
- 为PandasExcelReader.load_data添加fs参数 (#14554)
- UnstructuredReader功能增强 (#14390)
llama-index-readers-web [0.1.22]#
- nit: 修复创建文档时的firecrawl问题 (#14579)
llama-index-retrievers-bm25 [0.2.0]#
- 更新BM25Retriever以使用更新(且更快)的bm25s库 #(14581)
llama-index-vector-stores-qdrant [0.2.11]#
- 重构:不要吞掉来自Qdrant collection_exists的异常 (#14564)
- 添加对qdrant bm42的支持,设置稀疏+密集配置 (#14577)
[2024-07-03]#
llama-index-core [0.10.52]#
- 修复Windows上的文件读取路径错误 (#14537)
- 由于父类变更,在colbert索引中跟进kwargs传播问题 (#14522)
- 弃用查询管道智能体,改用FnAgentWorker (#14525O)
llama-index-callbacks-arize-phoenix [0.1.6]#
- 支持最新版本的arize #14526
llama-index-embeddings-litellm [0.1.0]#
- 为嵌入功能添加对LiteLLM代理服务器的支持 (#14523)
llama-index-finetuning [0.1.10]#
- 从sentence_transformers添加设备选择 (#14546)
llama-index-graph-stores-neo4 [0.2.7]#
- 修复了向量查询返回节点的固定排序问题 (#14461)
llama-index-llms-bedrock [0.1.10]#
- 处理Bedrock AnthropicProvider中的空响应 (#14479)
llama-index-llms-bedrock-converse [0.1.4]#
- 修复当添加新的字符串关键字参数时Bedrock Converse的join_two_dicts函数问题 (#14548)
llama-index-llms-upstage [0.1.4]#
- 添加上游分词器和分词计数方法 (#14502)
llama-index-readers-azstorage-blob [0.1.7]#
- 修复获取blobs对象名称的bug (#14547)
llama-index-readers-file [0.1.26]#
- 修复Pandas Excel读取器加载数据时追加文档的问题 (#14501)
llama-index-readers-iceberg [0.1.0]#
- 为LLamaIndex添加Iceberg Reader集成 (#14477)
llama-index-readers-notion [0.1.8]#
- 增加了重试机制 (#14488)
- 添加
list_databases方法 (#14488)
llama-index-readers-slack [0.1.5]#
- 增强SlackReader功能,支持从频道名称/模式获取频道ID (#14429)
llama-index-readers-web [0.1.21]#
- 为firecrawl阅读器添加API网址 (#14452)
llama-index-retrievers-bm25 [0.1.5]#
- 修复BM25检索器返回节点中的评分问题 (#14495)
llama-index-vector-stores-azureaisearch [0.1.9]#
- 为Azure AI搜索添加异步方法 (#14496)
llama-index-vector-stores-kdbai [0.1.8]#
- 兼容Kdbai rest (#14511)
llama-index-vector-stores-mongodb [0.1.6]#
- 为MongoDBAtlasVectorSearch添加混合搜索和全文搜索功能 (#14490)
[2024-06-28]#
llama-index-core [0.10.51]#
- 修复了函数调用llms和空工具调用的问题 (#14453)
- 修复查询管道中ChatMessage未被视作可字符串化的问题 (#14378)
- 更新模式llm路径提取器,使其也能接收有效三元组列表 (#14357)
- 当调用
build_index_from_nodes时传递kwargs参数 (#14341)
llama-index-agent-dashscope [0.1.0]#
- 添加阿里云dashscope智能体 (#14318)
llama-index-graph-stores-neo4j [0.2.6]#
- 为neo4j_property_graph添加MetadataFilters (#14362)
llama-index-llms-nvidia [0.1.4]#
- 为托管模型添加已知的上下文长度 (#14436)
llama-index-llms-perplexity [0.1.4]#
- 更新可用模型 (#14409)
llama-index-llms-predibase [0.1.6]#
- 针对无效API令牌的错误处理优化 (#14440)
llama-index-llms-yi [0.1.0]#
- 集成Yi模型 (#14353)
llama-index-readers-google [0.2.9]#
- 为Google Chat创建数据加载器 (#14397)
llama-index-readers-s3 [0.1.10]#
- 在S3Reader中使s3fs缓存失效 (#14441)
llama-index-readers-structured-data [0.1.0]#
- 为xlsx、csv、json和jsonl格式添加StructuredDataReader支持 (#14369)
llama-index-tools-jina [0.1.0]#
- 集成一个名为jina search的新工具 (#14317)
llama-index-vector-stores-astradb [0.1.8]#
- 更新Astra DB向量存储以使用现代astrapy库 (#14407)
llama-index-vector-stores-chromadb [0.1.10]#
- 修复chroma获取的id索引访问问题 (#14434)
llama-index-vector-stores-deeplake [0.1.4]#
- 在deeplake向量存储中实现了delete_nodes()和clear()方法 (#14457)
- 在deeplake向量存储中实现了get_nodes()方法 (#14388)
llama-index-vector-stores-elasticsearch [0.2.1]#
- 在Elasticsearch索引创建中添加对动态元数据字段的支持 (#14431)
llama-index-vector-stores-kdbai [0.1.7]#
- 兼容Kdbai版本 (#14402)
[2024-06-24]#
llama-index-core [0.10.50]#
- 新增了极其简单的
FnAgentWorker用于自定义智能体 (#14329) - 在build_index_from_nodes时传递kwargs参数 (#14341)
- 增强异步工具对嵌套异步的鲁棒性 (#14356)
llama-index-llms-upstage [0.1.3]#
- 每个llm都是一个聊天模型 (#14334)
llama-index-packs-rag-evaluator [0.1.5]#
- 在RAG评估包中增加了运行本地嵌入模型的可能性 (#14352)
[2024-06-23]#
llama-index-core [0.10.49]#
- 改进
llama-cloud和客户端依赖项 (#14254)
llama-index-indices-managed-llama-cloud [0.2.1]#
- 改进
LlamaCloudIndex中的界面和客户端交互 (#14254)
llama-index-llms-bedrock-converse [0.1.3]#
- 将Claude Sonnet 3.5添加到Bedrock对话功能 (#14306)
llama-index-llms-upstage [0.1.2]#
- 设置默认上下文大小 (#14293)
- 在upstage llm和embeddings上添加api_key别名 (#14233)
llama-index-storage-kvstore-azure [0.1.2]#
- 优化插入操作 (#14321)
llama-index-utils-azure [0.1.1]#
- azure_table_storage 参数错误 (#14182)
llama-index-vector-stores-neo4jvector [0.1.6]#
- 添加neo4j客户端方法 (#14314)
[2024-06-21]#
llama-index-core [0.10.48]#
- 提升平均精确度的效率 (#14260)
- 添加crewai + llamaindex食谱 (#14266)
- 向TextNode添加mimetype字段 (#14279)
- 改进IBM watsonx.ai文档 (#14271)
- 更新了文档首页,添加了智能体指南等内容 (#14089)
llama-index-llms-anthropic [0.1.14]#
- 添加对Claude 3.5的支持 (#14277)
llama-index-llms-bedrock-converse [0.1.4]#
- 为函数调用实现Bedrock Converse API (#14055)
[2024-06-19]#
llama-index-core [0.10.47]#
- 添加平均精度作为检索指标 (#14189)
- 新增了
.show_jupyter_graph()方法,用于在Jupyter笔记本中可视化默认的简单图存储 (#14104) - 修正了nltk文件查找的行为 (#14040)
- 为generate_qa_pairs添加了辅助参数 (#14054)
- 新增分块语义分块方法:双遍合并 (#13629)
- 支持查询管道的逐步执行 (#14117)
- 通过仅拒绝8.4.0版本来替换tenacity上限 (#14218)
- 在
llm.predict_and_call()中传播error_on_no_tool_call参数 (#14253) - 在查询管道中,避免将节点转换为字符串,改用
get_content()(#14242) - 修复NLSQLTableQueryEngine的响应元数据 (#14169)
- 不要覆盖默认简单属性图中的关系 (#14244)
llama-index-embeddings-ipex-llm [0.1.5]#
- 支持为ipex嵌入集成选择Intel GPU (#14214)
llama-index-embeddings-mixedbreadai [0.1.0]#
- 添加mixedbread AI集成 (#14161)
llama-index-graph-stores-neo4j [0.2.5]#
- 为neo4j upsert relations添加默认节点属性 (#14095)
llama-index-indices-managed-postgresml [0.3.0]#
- 在PostgresML托管索引中增加了重新排序功能 (#14134)
llama-index-llms-ai21 [0.3.0]#
- 为异步方法使用异步AI21客户端 (#14193)
llama-index-llms-bedrock-converse [0.1.2]#
- 添加了(模拟)异步调用以避免错误 (#14241)
llama-index-llms-deepinfra [0.1.3]#
- 为deep infra llm添加函数调用功能 (#14127)
llama-index-llms-ipex-llm [0.1.8]#
- 支持为ipex嵌入集成选择Intel GPU (#14214)
llama-index-llms-oci-genai [0.1.1]#
- 添加对OCI GenAI的命令R支持 (#14080)
llama-index-llms-premai [0.1.7]#
- Prem AI 模板 Llama Index 支持 (#14105)
llama-index-llms-you [0.1.0]#
- 集成You.com对话式API (#14207)
llama-index-readers-mongodb [0.1.8]#
- 为SimpleMongoReader添加元数据字段"collection_name" (#14245)
llama-index-readers-pdf-marker [0.1.0]#
- 添加标记PDF阅读器 (#14099)
llama-index-readers-upstage [0.1.0]#
- 添加了upstage作为阅读器 (#13415)
llama-index-postprocessor-mixedbreadai-rerank [0.1.0]#
- 添加mixedbread AI集成 (#14161)
llama-index-vector-stores-lancedb [0.1.6]#
- LanceDB: 代码清理,小幅更新 (#14077)
llama-index-vector-stores-opensearch [0.1.12]#
- 添加选项以自定义默认OpenSearch客户端和引擎 (#14249)
[2024-06-17]#
llama-index-core[0.10.46]#
- 修复核心模块中的Pin tenacity和numpy (#14203)
- 添加精确率和召回率指标 (#14170)
- 为Vertex AI启用函数调用和智能体运行器 (#14088)
- 修复 batch_gather 的问题 (#14162)
llama-index-utils-huggingface [0.1.1]#
- 从HuggingFace工具包中移除sentence-transformers依赖项 (#14204)
llama-index-finetuning [0.1.8]#
- 新增MistralAI微调API支持 (#14101)
llama-index-llms-mistralai [0.1.16]#
- 更新MistralAI (#14199)
llama-index-llms-bedrock-converse [0.1.0]#
- 修复: 🐛 修复Bedrock Converse的pyproject.toml文件以支持PyPI发布 (#14197)
llama-index-utils-azure [0.1.1]#
- 使用典型的include llama_index/ (#14196)
- 功能/Azure表存储 (#14182)
llama-index-embeddings-nvidia [0.1.4]#
- 新增对nvidia/nv-embed-v1的支持 (https://huggingface.co/nvidia/NV-Embed-v1) (#14194)
llama-index-retrievers-you [0.1.3]#
- 新增新闻检索器 (#13934)
llama-index-storage-kvstore-azure [0.1.1]#
- 修复了一个缺失await的bug。(#14177)
llama-index-embeddings-nomic [0.4.0post1]#
- 恢复Nomic Embed的einops依赖项 (#14176)
llama-index-retrievers-bm25 [0.1.4]#
- 修改BM25Retriever的_retrieve方法以使用numpy方法 (#14015)
llama-index-llms-gemini [0.1.11]#
- 为Gemini.stream_chat添加缺失的@llm_chat_callback() (#14166)
llama-index-llms-vertex [0.2.0]#
- 为Vertex AI启用函数调用和智能体运行器 (#14088)
llama-index-vector-stores-opensearch [0.1.11]#
- 功能:在OpenSearch VectorStore上支持VectorStoreQueryMode.TEXT_SEARCH (#14153)
[2024-06-14]#
llama-index-core [0.10.45]#
- 修复解析SQL查询.py (#14109)
- 实现NDCG指标 (#14100)
- 修复结构化生成的固定系统提示 (#14026)
- 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
- 新增PandasExcelReader类用于解析Excel文件 (#13991)
- 功能:在数据摄取管道中添加跨度(#14062)
llama-index-vector-stores-qdrant [0.2.10]#
- 修复Qdrant节点 (#14149)
llama-index-readers-mongodb [0.1.7]#
- 修复 TypeError: 序列项应为字符串实例,但找到整数
llama-index-indices-managed-vertexai [0.0.1]#
- 功能:为Vertex AI上的LlamaIndex添加托管索引以支持RAG(检索增强生成)(#13626)
llama-index-llms-oci-genai [0.1.1]#
- 功能/添加命令 r 支持 oci genai (#14080)
llama-index-vector-stores-milvus [0.1.20]#
- MilvusVectorStore: 输出字段中始终包含text_key (#14076)
llama-index-packs-mixture-of-agents [0.1.0]#
- 添加混合智能体论文实现 (#14112)
llama-index-llms-text-generation-inference [0.1.0]#
- 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
llama-index-llms-huggingface-api [0.1.0]#
- 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
llama-index-embeddings-huggingface-api [0.1.0]#
- 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
llama-index-utils-huggingface [0.1.0]#
- 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
llama-index-llms-watsonx [0.1.8]#
- 功能: IBM watsonx.ai llm 和嵌入集成 (#13600)
llama-index-llms-ibm [0.1.0]#
- 功能: 集成IBM watsonx.ai的llm和embeddings (#13600)
llama-index-embeddings-ibm [0.1.0]#
- 功能: 集成IBM watsonx.ai llm和embeddings (#13600)
llama-index-vector-stores-milvus [0.1.19]#
- 修复milvus过滤器枚举解析问题 (#14111)
llama-index-llms-anthropic [0.1.13]#
- 修复Anthropic LLM调用问题 (#14108)
llama-index-storage-index-store-postgres [0.1.4]#
- 错误地使用了Mongo名称而非Postgres (#14107)
llama-index-embeddings-bedrock [0.2.1]#
- 移除Bedrock嵌入中不必要的排除字段 (#14085)
llama-index-finetuning [0.1.7]#
- 功能/添加了信任远程代码 (#14102)
llama-index-readers-file [0.1.25]#
- nit: 修复pandas excel读取器的问题 (#14086)
llama-index-llms-anthropic [0.1.12]#
- 将anthropic依赖项最低版本更新至0.26.2 (#14091)
llama-index-llms-llama-cpp [0.1.4]#
- 添加对Llama 3 Instruct提示格式的支持 (#14072)
llama-index-llms-bedrock-converse [0.1.8]#
- 为函数调用实现Bedrock Converse API (#14055)
llama-index-vector-stores-postgres [0.1.11]#
- 修复/postgres-metadata-in-filter-single-elem (#14035)
llama-index-readers-file [0.1.24]#
- 新增PandasExcelReader类用于解析Excel文件 (#13991)
llama-index-embeddings-ipex-llm [0.1.4]#
- 更新llama-index-embeddings-ipex-llm的依赖项
llama-index-embeddings-gemini [0.1.8]#
- 在Gemini Embedding中添加API密钥作为字段 (#14061)
llama-index-vector-stores-milvus [0.1.18]#
- 扩展milvus向量存储的筛选选项 (#13961)
[2024-06-10]#
llama-index-core [0.10.44]#
- 为SimpleDirectoryReader添加WEBP和GIF作为支持的图像类型 (#14038)
- 重构:通过mixin为抽象方法添加spans (#14003)
- 为SQLAutoVectorQueryEngine添加流式支持 (#13947)
- 为NLSQLTableQueryEngine添加指定embed_model的选项 (#14006)
- 为多模态LLM添加span支持 (#13966)
- 在自动上一页下一页中更改为紧凑模式 (#13940)
- 功能:为流式错误添加异常事件 (#13917)
- 功能:为工具添加跨度 (#13916)
llama-index-embeddings-azure-openai [0.1.10]#
- 修复了在使用azure_ad时未设置API密钥导致的错误 (#13970)
llama-index-embeddings-jinaai [0.2.0]#
- 添加Jina多模态嵌入 (#13861)
llama-index-embeddings-nomic [0.3.0]#
- 添加Nomic多模态嵌入 (#13920)
llama-index-graph-stores-neo4j [0.2.3]#
- 在迭代前确保cypher返回列表 (#13938)
llama-index-llms-ai21 [0.2.0]#
- 新增对AI21 Labs Jamba-Instruct的支持 (#14030)
llama-index-llms-deepinfra [0.1.2]#
- 修复(deepinfrallm): 默认max_tokens (#13998)
llama-index-llms-vllm [0.1.8]#
- 修复
__del__()Vllm (#14053)
llama-index-packs-zenguard [0.1.0]#
- 添加ZenGuard llamapack (#13959)
llama-index-readers-google [0.2.7]#
- 修复Google Drive阅读器中类属性的设置方式 (#14022)
- 新增Google地图文本搜索阅读器 (#13884)
llama-index-readers-jira [0.1.4]#
- 用于托管实例的Jira个人访问令牌 (#13890)
llama-index-readers-mongodb [0.1.6]#
- 加载时设置文档ID (#14000)
llama-index-retrievers-duckdb-retriever [0.1.0]#
- 添加 DuckDBRetriever (#13929)
llama-index-vector-stores-chroma [0.1.9]#
- 为chromadb添加包含过滤器 (#14010)
llama-index-vector-stores-lancedb [0.1.5]#
- 修复LanceDBVectorStore的
add()逻辑 (#13993)
llama-index-vector-stores-milvus [0.1.17]#
- 支持Milvus向量存储的所有过滤运算符 (#13745)
llama-index-vector-stores-postgres [0.1.10]#
- 在llama-index-vector-stores-postgres中扩展SQLAlchemy支持至1.4+版本 (#13936)
llama-index-vector-stores-qdrant [0.2.9]#
- Qdrant: 为
doc_id创建有效负载索引 (#14001)
[2024-06-02]#
llama-index-core [0.10.43]#
- 尽可能为属性图索引向量存储使用默认UUID (#13886)
- 避免在属性图索引中出现空或重复插入 (#13891)
- 修复简单属性图存储中
get_rel_map的当前深度问题 (#13888) - (临时方案) 禁用日志生成器的检测功能 (#13901)
- 为Dispatcher.get_dispatch_event()方法添加向后兼容性 (#13895)
- 修复:StructuredPlannerAgent中acreate_plan命名错误 (#13879)
llama-index-graph-stores-neo4j [0.2.2]#
- 处理类型缺失的情况(neo4j属性图)(#13875)
- 将
Neo4jPGStore重命名为Neo4jPropertyGraphStore(保持向后兼容性)(#13891)
llama-index-llms-openai [0.1.22]#
- 改进OpenAI的重试机制 (#13878)
llama-index-readers-web [0.1.18]#
- AsyncWebPageReader: 使其真正实现异步; 之前存在阻塞行为问题 (#13897)
llama-index-vector-stores-opensearch [0.1.10]#
- 修复/优化OpenSearch筛选逻辑 (#13804)
[2024-05-31]#
llama-index-core [0.10.42]#
- 允许在属性图索引中正确设置向量存储 (#13816)
- 修复langchain桥接中的导入问题 (#13871)
llama-index-graph-stores-nebula [0.2.0]#
- 为PropertyGraphStore添加NebulaGraph支持 (#13816)
llama-index-llms-langchain [0.1.5]#
- 修复langchain llm中的fireworks导入问题 (#13871)
llama-index-llms-openllm [0.1.5]#
- 功能(openllm): 0.5版本SDK集成更新 (#13848)
llama-index-llms-premai [0.1.5]#
- 更新SDK兼容性 (#13836)
llama-index-readers-google [0.2.6]#
- 修复了GoogleDriveReader中因令牌导致无限循环的错误 (#13863)
[2024-05-30]#
llama-index-core [0.10.41]#
- 将嵌入从索引传递到属性图检索器 (#13843)
- 防止仪器事件/跨度处理程序相互干扰 (#13823)
- 为完成流添加缺失的事件 (#13824)
- 当出现异常时缺少 callback_manager.on_event_end 回调 (#13825)
llama-index-llms-gemini [0.1.10]#
- 使用
model参数指定gemini的模型名称 (#13791)
llama-index-llms-mistralai [0.1.15]#
- 添加Mistral代码模型 (#13807)
- 使用填充中间端点更新mistral codestral (#13810)
llama-index-llms-openllm [0.1.5]#
- 0.5 版本集成更新 (#13848)
llama-index-llms-vertex [0.1.8]#
- Vertex集成中Pydantic错误的安全设置 (#13817)
llama-index-readers-smart-pdf-loader [0.1.5]#
- 在智能PDF阅读器中处理路径对象 (#13847)
[2024-05-28]#
llama-index-core [0.10.40]#
- 新增了
PropertyGraphIndex及其他支持抽象。详见完整指南获取更多详情 (#13747) - 更新了
AutoPrevNextNodePostprocessor,允许传入响应模式和LLM (#13771) - 修复返回直接类型处理 (#13776)
- 在检索评估器中更正方法名称为
_aget_retrieved_ids_and_texts(#13765) - 修复: QueryTransformComponent 错误调用
self._query_transform(#13756) - 为
SimpleVectorStoreIndex实现更多过滤器 (#13365)
llama-index-embeddings-bedrock [0.2.0]#
- 新增支持Bedrock Titan Embeddings v2 (#13580)
llama-index-embeddings-oci-genai [0.1.0]#
- 添加Oracle云基础设施(OCI)生成式AI (#13631)
llama-index-embeddings-huggingface [0.2.1]#
- 从AutoModel中暴露"safe_serialization"参数 (#11939)
llama-index-graph-stores-neo4j [0.2.0]#
- 新增
Neo4jPGStore支持属性图功能 (#13747)
llama-index-indices-managed-dashscope [0.1.1]#
- 新增了dashscope托管索引 (#13378)
llama-index-llms-oci-genai [0.1.0]#
- 添加Oracle云基础设施(OCI)生成式AI (#13631)
llama-index-readers-feishu-wiki [0.1.1]#
- 修复未定义变量 (#13768)
llama-index-packs-secgpt [0.1.0]#
- SecGPT - LlamaIndex 集成 #13127
llama-index-vector-stores-hologres [0.1.0]#
- 添加Hologres向量数据库 (#13619)
llama-index-vector-stores-milvus [0.1.16]#
- 移除FlagEmbedding作为Milvus的依赖项 (#13767) 统一集合构建,无论enable_sparse的值如何 (#13773)
llama-index-vector-stores-opensearch [0.1.9]#
- 重构以将辅助方法放入类定义中 (#13749)
[2024-05-24]#
llama-index-core [0.10.39]#
- 添加VectorMemory和SimpleComposableMemory (#13352)
- 改进MarkdownReader以忽略代码块中的标题 (#13694)
- 适当的异步元素节点解析器 (#13698)
- 在函数调用工作器中仅返回消息内容 (#13677)
- nit: 修复多模态查询引擎以使用元数据 (#13712)
- 添加笔记本,提供针对冗长工具描述和QueryPlanTool的变通方案 (#13701)
llama-index-embeddings-ipex-llm [0.1.2]#
- 改进设备选择 (#13644)
llama-index-indices-managed-postgresml [0.1.3]#
- 添加PostgresML托管索引 (#13623)
llama-index-indices-managed-vectara [0.1.4]#
- 新增了聊天引擎、流式处理、事实一致性评分等功能 (#13639)
llama-index-llms-deepinfra [0.0.1]#
- 为DeepInfra LLM模型添加集成 (#13652)
llama-index-llm-ipex-llm [0.1.3]#
- 为llama-index-llm-ipex-llm添加GPU支持 (#13691)
llama-index-llms-lmstudio [0.1.0]#
- lmstudio 集成 (#13557)
llama-index-llms-ollama [0.1.5]#
- 使用aiter_lines函数在ollama集成中迭代行 (#13699)
llama-index-llms-vertex [0.1.6]#
- 为gemini添加了safety_settings参数 (#13568)
llama-index-postprocessor-voyageai-rerank [0.1.3]#
- 修复VoyageAI重新排序的bug (#13622)
llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.4]#
- 添加缺失的返回 (#13720)
llama-index-readers-web [0.1.17]#
- 添加Scrapfly网页加载器 (#13654)
llama-index-vector-stores-postgres [0.1.9]#
- 修复删除和特殊字符相关的bug (#13651)
llama-index-vector-stores-supabase [0.1.5]#
- 添加try-catch块以防止._client属性不存在的情况 (#13681)
[2024-05-21]#
llama-index-core [0.10.38]#
- 在BaseSQLTableQueryEngine中启用流式处理 (#13599)
- 修复关系型节点解析器中的非类型错误 (#13615)
- 功能(监控): 为所有LLM新增追踪区间 (#13565)
- 适当限制生成问题的数量 (#13596)
- 在元素节点解析器中传递 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' 参数 (#13567)
- 为QueryPipeline添加批处理模式 (#13203)
- 改进SentenceEmbeddingOptimizer以遵循Settings.embed_model设置 (#13514)
- ReAct输出解析器的稳健性改进 (#13459)
- 修复了使用单个参数调用pydantic工具的问题 (#13522)
- 修复流式聊天未返回时可能出现的意外错误 (#13422)
llama-index-embeddings-nomic [0.2.0]#
- 通过inference_mode参数实现本地Nomic Embed (#13607)
llama-index-embeddings-nvidia [0.1.3]#
- 弃用
mode(),改用__init__(base_url=...)(#13572) - 添加对snowflake/arctic-embed-l的支持 (#13555)
llama-index-embeddings-openai [0.1.10]#
- 更新OpenAI重试机制的触发方式 (#13608)
llama-index-embeddings-upstage [0.1.0]#
- 集成:upstage LLM和Embeddings (#13193)
llama-index-llms-gemini [0.1.8]#
- 功能:为多模态LLM和常规模型添加Gemini新模型 (#13539)
llama-index-llms-groq [0.1.4]#
- 修复:启用工具使用 (#13566)
llama-index-llms-lmstudio [0.1.0]#
- 添加对lmstudio集成的支持 (#13557)
llama-index-llms-nvidia [0.1.3]#
- 弃用
mode()方法,改用__init__(base_url=...)(#13572)
llama-index-llms-openai [0.1.20]#
- 更新OpenAI重试机制的触发方式 (#13608)
llama-index-llms-unify [0.1.0]#
- 添加Unify LLM支持 (#12921)
llama-index-llms-upstage [0.1.0]#
- 集成:upstage LLM和Embeddings (#13193)
llama-index-llms-vertex [0.1.6]#
- 为MedLM模型添加支持 (#11911)
llama_index.postprocessor.dashscope_rerank [0.1.0]#
- 为后处理器添加dashscope重新排序功能 (#13353)
llama-index-postprocessor-nvidia-rerank [0.1.2]#
- 弃用
mode()改用__init__(base_url=...)(#13572)
llama-index-readers-mongodb [0.1.5]#
- SimpleMongoReader应允许在元数据中包含可选字段 (#13575)
llama-index-readers-papers [0.1.5]#
- 修复: (ArxivReader) 从隐藏目录读取数据时将exclude_hidden设置为False (#13578)
llama-index-readers-sec-filings [0.1.5]#
- 修复:向sec.gov发起请求时的sec_filings标头问题 #13548
llama-index-readers-web [0.1.16]#
- 新增firecrawl搜索模式 (#13560)
- 更新了Browserbase网页阅读器 (#13535)
llama-index-tools-cassandra [0.1.0]#
- 为智能体添加了Cassandra数据库工具规范 (#13423)
llama-index-vector-stores-azureaisearch [0.1.7]#
- 允许查询AzureAISearch时无需非空元数据字段 (#13531)
llama-index-vector-stores-elasticsearch [0.2.0]#
- 集成来自Elasticsearch客户端的VectorStore (#13291)
llama-index-vector-stores-milvus [0.1.14]#
- 修复Milvus向量存储的筛选表达式构建问题 (#13591)
llama-index-vector-stores-supabase [0.1.4]#
- 删除时断开连接 (#13611)
llama-index-vector-stores-wordlift [0.1.0]#
- 新增了WordLift向量存储 (#13028)
[2024-05-14]#
llama-index-core [0.10.37]#
- 在调用时为
MultiModalLLMCompletionProgram添加image_documents功能 (#13467) - 通过从线程切换为asyncio来修复RuntimeError (#13486)
- 添加对prompt kwarg的支持 (#13405)
- VectorStore -> BasePydanticVectorStore (#13439)
- 修复:user_message 不存在的问题 (#13432)
- 导入缺失的响应类型 (#13382)
- 为
MultiModalLLM添加CallbackManager(#13400)
llama-index-llms-bedrock [0.1.8]#
- 从Bedrock Cohere调用模型请求中移除"Truncate"参数 (#13442)
llama-index-readers-web [0.1.14]#
- Trafilatura 参数和进度条用于 trafilatura 网页阅读器 (#13454)
llama-index-vector-stores-postgres [0.1.8]#
- 修复 #9522 - 使用混合搜索时出现的SQLAlchemy警告 (#13476)
llama-index-vector-stores-lantern [0.1.4]#
- 修复 #9522 - 使用混合搜索时出现的SQLAlchemy警告 (#13476)
llama-index-callbacks-uptrain [0.2.0]#
- 更新UpTrain回调处理器以支持新的升级评估架构 (#13479)
llama-index-vector-stores-zep [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-vearch [0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-upstash [0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-typesense [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-timescalerevector [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tencentvectordb [0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tair [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-singlestoredb [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-rocksetdb [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neptune [0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neo4jvector [0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-myscale [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-metal [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-jaguar [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-epsilla [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dynamodb [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dashvector [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-chatgpt-plugin [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-baiduvectordb [0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-bagel [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awsdocdb [0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awadb [0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-alibabacloud-opensearch [0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-wordlift [0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-guru [0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-pebblo [0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-postprocessor-voyageai-rerank [0.1.2]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-sbert-rerank [0.1.4]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-rankllm-rerank [0.1.3]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-rankgpt-rerank [0.1.4]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-openvino-rerank [0.1.3]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-nvidia-rerank [0.1.1]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-jinaai-rerank [0.1.3]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-flag-embedding-rerank [0.1.3]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-colbert-rerank [0.1.2]#
- 升级重新排序版本 (#13465)
llama-index-postprocessor-cohere-rerank [0.1.6]#
- 升级重新排序版本 (#13465)
llama-index-multi-modal-llms-openai [0.1.6]#
- 支持gpt-4o (#13463)
llama-index-llms-openai [0.1.19]#
- 支持gpt-4o (#13463)
llama-index-packs-rag-fusion-query-pipeline [0.1.4]#
- 修复RAG融合管道 (#13413)
llama-index-agent-openai [0.2.5]#
- 修复:更新OpenAIAssistantAgent以使用附件 (#13341)
llama-index-embeddings-deepinfra [0.1.0]#
- 新增嵌入集成 (#13323)
llama-index-llms-mlx [0.1.0]#
- 新增llm集成 (#13231)
llama-index-vector-stores-milvus [0.1.12]#
- 修复:修正了connections.connect()中的连接参数 (#13448)
llama-index-vector-stores-azureaisearch [0.1.6]#
- 修复 AzureAiSearchVectorStore 元数据 f-string (#13435)
llama-index-vector-stores-mongodb [0.1.5]#
- 为MongoDBAtlasVectorSearch添加单元测试和集成测试 (#12854)
llama-index-llms-huggingface [0.2.0]#
- 更新llama-index-llms-huggingface依赖项 (#13420)
llama-index-vector-store-relyt [0.1.0]#
- 新增向量存储集成
llama-index-storage-kvstore-redis [0.1.5]#
- 在RedisKVStore中实现异步方法 (#12943)
llama-index-packs-cohere-citation-chat [0.1.5]#
- 固定llama-index-llms-cohere依赖项 (#13417)
llama-index-llms-cohere [0.2.0]#
- 固定cohere依赖项 (#13417)
llama-index-tools-azure-code-interpreter [0.1.1]#
- 修复索引问题和运行时错误消息 (#13414)
llama-index-postprocessor-cohere-rerank [0.1.5]#
- 修复Cohere Rerank的bug (#13410)
llama-index-indices-managed-llama-cloud [0.1.7]#
- 修复检索器集成问题 (#13409)
llama-index-tools-azure-code-interpreter [0.1.0]#
- 新工具
llama-index-readers-google [0.2.5]#
- 修复GoogleDriveReader中缺失的authorized_user_info检查 (#13394)
llama-index-storage-kvstore-firestore [0.2.1]#
- 等待Firestore的AsyncDocumentReference (#13386)
llama-index-llms-nvidia [0.1.2]#
- 添加动态模型列表支持 (#13398)
[2024-05-09]#
llama-index-core [0.10.36]#
- 为MarkdownElementParser添加start_char_idx和end_char_idx (#13377)
- 使用全局默认的处理程序 (#13368)
llama-index-readers-pebblo [0.1.0]#
- 初始版本 (#13128)
llama-index-llms-cohere [0.1.7]#
- 使用文档参数调用Cohere RAG推理 (#13196)
llama-index-vector-scores-kdbai [0.1.6]#
- 更新添加方法以解码UTF-8 (#13194)
llama-index-vector-stores-alibabacloud-opensearch [0.1.0]#
- 初始版本 (#13286)
llama-index-tools-multion [0.2.0]#
- 更新工具以使用最新的API/SDK (#13373)
llama-index-vector-sores-weaviate [1.0.0]#
- 更新至weaviate客户端v4 (#13229)
llama-index-readers-file [0.1.22]#
- 修复PDFReader忽略extra_info的bug (#13369)
llama-index-llms-azure-openai [0.1.8]#
- 添加同步httpx客户端支持 (#13370)
llama-index-llms-openai [0.1.18]#
- 添加同步httpx客户端支持 (#13370)
- 添加缺失的OpenAI模型令牌上下文 (#13337)
llama-index-readers-github [0.1.9]#
- 添加 fail_on_http_error 参数 (#13366)
llama-index-vector-stores-pinecone [0.1.7]#
- 为pinecone添加归属标签 (#13329)
llama-index-llms-nvidia [0.1.1]#
- 将默认的max_tokens设置为1024 (#13371)
llama-index-readers-papers [0.1.5]#
- 修复arxiv阅读器中隐藏临时目录的问题 (#13351)
llama-index-embeddings-nvidia [0.1.1]#
- 修复 truncate 传递 aget_query_embedding 和 get_text_embedding 的问题 (#13367)
llama-index-llms-anyscare [0.1.4]#
- 添加llama-3模型 (#13336)
[2024-05-07]#
llama-index-agent-introspective [0.1.0]#
- 添加CRITIC和反思智能体集成 (#13108)
llama-index-core [0.10.35]#
- 修复
from_defaults()清除摘要记忆缓冲区历史记录的问题 (#13325) - 在核心部分使用现有的异步事件循环,而非
asyncio.run()(#13309) - 修复了在问题浓缩聊天引擎中查询引擎的异步流式传输问题 (#13306)
- 修复元素节点解析器中extract_table_summaries函数的ValueError处理问题 (#13318)
- 正确处理QASummaryQueryEngineBuilder和RouterQueryEngine的llm问题 (#13281)
- 扩展检测负载 (#13302)
- 修复SQL连接语句中缺少schema的Bug (#13277)
llama-index-embeddings-jinaai [0.1.5]#
- 在JinaEmbedding类中添加encoding_type参数 (#13172)
- 修复JinaEmbeddings中的编码类型访问问题 (#13315)
llama-index-embeddings-nvidia [0.1.0]#
- 添加对NVIDIA NIM嵌入的支持 (#13177)
llama-index-llms-mistralai [0.1.12]#
- 修复使用Mistral AI进行流式传输时的异步问题 (#13292)
llama-index-llms-nvidia [0.1.0]#
- 添加NVIDIA NIM LLM支持 (#13176)
llama-index-postprocessor-nvidia-rerank [0.1.0]#
- 添加NVIDIA NIM重新排序支持 (#13178)
llama-index-readers-file [0.1.21]#
- 更新MarkdownReader以解析首个标题前的文本 (#13327)
llama-index-readers-web [0.1.13]#
- 功能:新增蜘蛛网加载器 (#13200)
llama-index-vector-stores-vespa [0.1.0]#
- 为Vespa添加VectorStore集成 (#13213)
llama-index-vector-stores-vertexaivectorsearch [0.1.0]#
- 添加对Vertex AI向量搜索作为向量存储的支持 (#13186)
[2024-05-02]#
llama-index-core [0.10.34]#
- 在聊天引擎流式传输期间移除错误忽略 (#13160)
- 添加结构化规划智能体 (#13149)
- 更新规划智能体的基类 (#13228)
- 修复:当使用SimpleFileNodeParser解析文件且文件扩展名不在FILE_NODE_PARSERS中时出现的错误 (#13156)
- 为节点解析器添加匹配的
source_node.node_id验证 (#13109) - 检索指标:更新HitRate和MRR以评估@K检索到的文档。同时将RR作为单独指标添加 (#12997)
- 添加聊天摘要记忆缓冲区 (#13155)
llama-index-indices-managed-zilliz [0.1.3]#
- ZillizCloudPipelineIndex 接受灵活的参数来创建管道 (#10134, #10112)
llama-index-llms-huggingface [0.1.7]#
- 通过集成Hugging Face的text-generation-inference添加工具使用支持 (#12471)
llama-index-llms-maritalk [0.2.0]#
- 为maritalk添加流式支持 (#13207)
llama-index-llms-mistral-rs [0.1.0]#
- 集成mistral.rs LLM (#13105)
llama-index-llms-mymagic [0.1.7]#
- mymagicai API 更新 (#13148)
llama-index-llms-nvidia-triton [0.1.5]#
- 支持NVIDIA Triton集成的流式传输功能 (#13135)
llama-index-llms-ollama [0.1.3]#
- 为ollama llms添加了异步支持 (#13150)
llama-index-readers-microsoft-sharepoint [0.2.2]#
- 从LLMs和嵌入中排除访问控制元数据键 - SharePoint Reader (#13184)
llama-index-readers-web [0.1.11]#
- 功能: 集成Browserbase网页阅读器 (#12877)
llama-index-readers-youtube-metadata [0.1.0]#
- 新增YouTube元数据读取器 (#12975)
llama-index-storage-kvstore-redis [0.1.4]#
- 修复redis kvstore中键值为字节的问题 (#13201)
llama-index-vector-stores-azureaisearch [0.1.5]#
- 为Azure AI搜索添加筛选条件支持 (#13215)
llama-index-vector-stores-chroma [0.1.7]#
- 针对新版chroma客户端的小幅更新 (#13158)
llama-index-vector-stores-firestore [0.1.0]#
- 添加Firestore向量存储 (#12048)
llama-index-vector-stores-kdbai [0.1.5]#
- 修复了
add()后返回ID的小问题 (#12515)
llama-index-vector-stores-milvus [0.1.11]#
- 为MilvusVectorStore添加混合检索模式 (#13122)
llama-index-vector-stores-postgres [0.1.7]#
- 在pgvector存储中参数化查询 (#13199)
[2024-04-27]#
llama-index-core [0.10.33]#
- 添加 agent_worker.as_agent() (#13061)
llama-index-embeddings-bedrock [0.1.5]#
- 使用Bedrock cohere字符限制 (#13126)
llama-index-tools-google [0.1.5]#
- 将attendees的默认值更改为空列表 (#13134)
llama-index-graph-stores-falkordb [0.1.4]#
- 当索引已存在时跳过索引创建错误 (#13085)
llama-index-tools-google [0.1.4]#
- 修复Google日历create_event API的日期时间问题 (#13132)
llama-index-llms-anthropic [0.1.11]#
- 将多个提示合并为一个 (#13131)
llama-index-indices-managed-llama-cloud [0.1.6]#
- 在LlamaCloud Retriever中使用MetadataFilters (#13117)
llama-index-graph-stores-kuzu [0.1.3]#
- 修复kuzu集成中的.execute()调用 (#13100)
llama-index-vector-stores-lantern [0.1.3]#
- 维护更新以保持与lantern构建同步 (#13116)
[2024-04-25]#
llama-index-core [0.10.32]#
- 修正了
OutputKeys.from_keys()的错误输出类型 (#13086) - 将run_jobs添加到aws基础嵌入 (#13096)
- 允许用户自定义关键词提取器的提示模板 (#13083)
- (CondenseQuestionChatEngine) 如果没有对话历史记录,则不压缩问题 (#13069)
- QueryPlanTool: 在查询计划中的后续(依赖)节点执行工具调用 (#13047)
- 修复了融合检索器在相似性搜索前有时返回None类型查询的问题 (#13112)
llama-index-embeddings-ipex-llm [0.1.1]#
- 支持llama-index-embeddings-ipex-llm用于英特尔GPU (#13097)
llama-index-packs-raft-dataset [0.1.4]#
- 修复raft数据集生成器中的错误 - 多个系统提示 (#12751)
llama-index-readers-microsoft-sharepoint [0.2.1]#
- 向SharePoint阅读器添加访问控制相关元数据 (#13067)
llama-index-vector-stores-pinecone [0.1.6]#
- 支持嵌套元数据筛选器 (#13113)
llama-index-vector-stores-qdrant [0.2.8]#
- 支持嵌套元数据筛选 (#13113)
[2024-04-23]#
llama-index-core [0.10.31]#
- 修复来自查询引擎的异步流式响应 (#12953)
- 在元素节点解析器中强制使用uuid (#12951)
- 添加函数调用LLM程序 (#12980)
- 使PydanticSingleSelector支持异步API (#12964)
- 修复查询管道的arun_with_intermediates (#13002)
llama-index-agent-coa [0.1.0]#
- 添加COA智能体集成 (#13043)
llama-index-agent-lats [0.1.0]#
- 官方LATs智能体集成 (#13031)
llama-index-agent-llm-compiler [0.1.0]#
- 添加LLMCompiler智能体集成 (#13044)
llama-index-llms-anthropic [0.1.10]#
- 新增向Anthropic LLM请求传递自定义标头的功能 (#12819)
llama-index-llms-bedrock [0.1.7]#
- 将Claude 3 Opus添加到BedRock集成 (#13033)
llama-index-llms-fireworks [0.1.5]#
- 将新的Llama 3和Mixtral 8x22b模型添加到Llama Index的Fireworks中 (#12970)
llama-index-llms-openai [0.1.16]#
- 修复AsyncOpenAI在快速创建和销毁实例时出现的"RuntimeError: Event loop is closed"错误 (#12946)
- 不要在所有OpenAI APIStatusError异常时重试 - 仅针对InternalServerError (#12947)
llama-index-llms-watsonx [0.1.7]#
- 更新了IBM watsonx基础模型 (#12973)
llama-index-packs-code-hierarchy [0.1.6]#
- 如果查询节点不存在,则返回父节点 (#12983)
- 修复了函数被定义两次时的错误 (#12941)
llama-index-program-openai [0.1.6]#
- 在OpenAIPydanticProgram中添加对Pydantic输出类的流式部分实例支持 (#13021)
llama-index-readers-openapi [0.1.0]#
- 为OpenAPI文件添加读取器 (#12998)
llama-index-readers-slack [0.1.4]#
- 修复未处理异常时可能导致的无限循环问题 (#12963)
llama-index-readers-web [0.1.10]#
- 改进全站阅读器以移除重复链接 (#12977)
llama-index-retrievers-bedrock [0.1.1]#
- 修复Bedrock KB检索器以使用查询包 (#12910)
llama-index-vector-stores-awsdocdb [0.1.0]#
- 将AWS DocumentDB集成作为向量存储方法 (#12217)
llama-index-vector-stores-databricks [0.1.2]#
- 修复 Databricks 向量搜索元数据 (#12999)
llama-index-vector-stores-neo4j [0.1.4]#
- 支持Neo4j元数据过滤功能 (#12923)
llama-index-vector-stores-pinecone [0.1.5]#
- 修复了使用稀疏查询模式查询PineconeVectorStore时的错误 (#12967)
llama-index-vector-stores-qdrant [0.2.5]#
- 针对异步操作和检查集合是否存在的多项修复 (#12916)
llama-index-vector-stores-weaviate [0.1.5]#
- 为WeviateVectoreStore添加索引删除功能 (#12993)
[2024-04-17]#
llama-index-core [0.10.30]#
- 将中间输出添加到QueryPipeline (#12683)
- 修复显示进度导致结果乱序的问题 (#12897)
- 为简单向量存储添加OR过滤条件支持 (#12823)
- 改进自定义智能体初始化 (#12824)
- 修复在没有文档存储的情况下加载管道的问题 (#12808)
- 在
_arun_step_stream中使用异步_aprocess_actions(#12846) - 向StreamChatErrorEvent提供异常 (#12879)
- 修复了加载和搜索工具规范中的错误 (#12902)
llama-index-embeddings-azure-opena [0.1.7]#
- 公开azure_ad_token_provider参数以支持令牌过期 (#12818)
llama-index-embeddings-cohere [0.1.8]#
- 添加httpx_async_client选项 (#12896)
llama-index-embeddings-ipex-llm [0.1.0]#
- 添加ipex-llm嵌入集成 (#12740)
llama-index-embeddings-octoai [0.1.0]#
- 添加octoai嵌入功能 (#12857)
llama-index-llms-azure-openai [0.1.6]#
- 公开azure_ad_token_provider参数以支持令牌过期 (#12818)
llama-index-llms-ipex-llm [0.1.2]#
- 为IpexLLM集成添加支持加载"低比特格式"模型的功能 (#12785)
llama-index-llms-mistralai [0.1.11]#
- 支持
open-mixtral-8x22b(#12894)
llama-index-packs-agents-lats [0.1.0]#
- 新增LATS智能体包 (#12735)
llama-index-readers-smart-pdf-loader [0.1.4]#
- 使用传入的元数据作为文档 (#12844)
llama-index-readers-web [0.1.9]#
- 新增了Firecrawl网页加载器 (#12825)
llama-index-vector-stores-milvus [0.1.10]#
- 使用批量插入到Milvus向量存储 (#12837)
llama-index-vector-stores-vearch [0.1.0]#
- 将vearch添加到向量存储 (#10972)
[2024-04-13]#
llama-index-core [0.10.29]#
- 重大变更 已将
PandasQueryEngine和PandasInstruction解析器移至llama-index-experimental(#12419) - 新安装:
pip install -U llama-index-experimental - 新增导入:
from llama_index.experimental.query_engine import PandasQueryEngine - 修复了一些核心依赖项,使llamaindex在Python 3.12环境下能良好运行 (#12762)
- 更新异步工具
run_jobs()以包含tqdm描述 (#12812) - 重构kvdocstore删除方法 (#12681)
llama-index-llms-bedrock [0.1.6]#
- 支持来自Bedrock的Mistral Large (#12804)
llama-index-llms-openvino [0.1.0]#
- 新增OpenVino LLMs支持 (#12639)
llama-index-llms-predibase [0.1.4]#
- 将LlamaIndex-Predibase集成更新至最新API (#12736)
- 在LlamaIndex-Predibase集成中支持选择Predibase托管或HuggingFace托管的微调适配器 (#12789)
llama-index-output-parsers-guardrails [0.1.3]#
- 现代化GuardrailsOutputParser (#12676)
llama-index-packs-agents-coa [0.1.0]#
- 抽象链智能体包 (#12757)
llama-index-packs-code-hierarchy [0.1.3]#
- 修复了多字节字符分块的问题 (#12715)
llama-index-packs-raft-dataset [0.1.4]#
- 修复raft数据集生成器中的错误 - 多个系统提示 (#12751)
llama-index-postprocessor-openvino-rerank [0.1.2]#
- 添加openvino重新排序支持 (#12688)
llama-index-readers-file [0.1.18]#
- 如果输入路径为字符串,则在docx阅读器中转换为Path (#12807)
- 使pip check能够检查可选的PDF包 (#12758)
llama-index-readers-s3 [0.1.7]#
- 在S3Reader中使用默认s3端点时出现错误的文档ID (#12803)
llama-index-retrievers-bedrock [0.1.0]#
- 添加Amazon Bedrock知识库集成作为检索器 (#12737)
llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.3]#
- 添加MongoDB Atlas BM25检索器 (#12519)
llama-index-storage-chat-store-redis [0.1.3]#
- 修复redis聊天存储中的消息序列化问题 (#12802)
llama-index-vector-stores-astra-db [0.1.6]#
- 放宽依赖版本以支持 astrapy
1.*(#12792)
llama-index-vector-stores-couchbase [0.1.0]#
- 添加对Couchbase作为向量存储的支持 (#12680)
llama-index-vector-stores-elasticsearch [0.1.7]#
- 修复elasticsearch混合rrf的window_size (#12695)
llama-index-vector-stores-milvus [0.1.8]#
- 新增支持从milvus检索元数据字段 (#12626)
llama-index-vector-stores-redis [0.2.0]#
- 现代化Redis向量存储,使用redisvl (#12386)
llama-index-vector-stores-qdrant [0.2.0]#
- 重构:切换默认的Qdrant稀疏编码器 (#12512)
[2024-04-09]#
llama-index-core [0.10.28]#
- 支持在Markdown节点解析器中使用缩进的代码块围栏 (#12393)
- 将输出解析器传递给指南评估器 (#12646)
- 新增了查询管道 + 内存的示例 (#12654)
- 在CondensePlusContextChatEngine异步模式下添加缺失的节点后处理器 (#12663)
- 为工具/工具元数据添加了
return_direct选项 (#12587) - 为批量评估运行器添加重试功能 (#12647)
- 线程安全的检测工具 (#12638)
- 协程安全的仪器化Spans #12589
- 在PDFReader中为非默认文件系统添加内存加载功能 (#12659)
- 在句子分割器中移除冗余的分词器调用 (#12655)
- 将SynthesizeComponent添加到快捷导入中 (#12655)
- 优化了SimpleSummarize中的截断功能 (#12655)
- 在eval_utils的default_parser中添加错误处理以提高正确性 (#12624)
- 在RankGPT后处理器节点中添加async_postprocess_nodes (#12620)
- 修复MarkdownNodeParser的ref_doc_id (#12615)
llama-index-embeddings-openvino [0.1.5]#
- 添加了对openvino嵌入的初步支持 (#12643)
llama-index-llms-anthropic [0.1.9]#
- 添加Anthropic工具调用功能 (#12591)
llama-index-llms-ipex-llm [0.1.1]#
- 添加ipex-llm集成 (#12322)
- 为ipex-llm的llm集成增加更多数据类型支持 (#12635)
llama-index-llms-openllm [0.1.4]#
- 在OpenLLM中正确使用PrivateAttr (#12655)
llama-index-multi-modal-llms-anthropic [0.1.4]#
- 升级了Anthropic依赖版本 (#12655)
llama-index-multi-modal-llms-gemini [0.1.5]#
- 升级生成式AI依赖项 (#12645)
llama-index-packs-dense-x-retrieval [0.1.4]#
- 为DenseXRetrievalPack添加流式支持 (#12607)
llama-index-readers-mongodb [0.1.4]#
- 提升MongoDB读取器的效率 (#12664)
llama-index-readers-wikipedia [0.1.4]#
- 为Wikipedia阅读器添加了多语言支持 (#12616)
llama-index-storage-index-store-elasticsearch [0.1.3]#
- 从默认集合名称中移除无效字符 (#12672)
llama-index-vector-stores-milvus [0.1.8]#
- 新增支持从milvus检索元数据字段 (#12626)
- Bug修复 - MilvusVectorStore的相似度度量始终为IP (#12611)
[2024-04-04]#
llama-index-agent-openai [0.2.2]#
- 更新消息线程类型的导入 (#12437)
llama-index-core [0.10.27]#
- 修复pydantic查询引擎输出为空的问题 (#12469)
- 为事件(检测)添加span_id属性 (#12417)
- 修复从docs属性中检索RedisDocstore节点的问题 (#12324)
- 向retriever_tool添加节点后处理器 (#12415)
- FLAREInstructQueryEngine:如果查询引擎支持,则委托检索器API(#12503)
- 使聊天消息转换为字典更安全 (#12526)
- 修复批量评估运行器中针对多关键字参数的检查 (#12563)
- 修复了agent_react_multimodal_step.py中关于部分参数的bug (#12566)
llama-index-embeddings-clip [0.1.5]#
- 新增支持从本地文件路径加载clip模型 (#12577)
llama-index-embeddings-cloudflar-workersai [0.1.0]#
- 文本嵌入集成:Cloudflare Workers AI (#12446)
llama-index-embeddings-voyageai [0.1.4]#
- 修复类定义中的pydantic问题 (#12469)
llama-index-finetuning [0.1.5]#
- QA生成提示中的小拼写错误修复 (#12470)
llama-index-graph-stores-falkordb [0.1.3]#
- 将redis驱动替换为FalkorDB驱动 (#12434)
llama-index-llms-anthropic [0.1.8]#
- 新增向Anthropic客户端传递自定义HTTP标头的功能 (#12558)
llama-index-llms-cohere [0.1.6]#
- 添加对Cohere Command R+模型的支持 (#12581)
llama-index-llms-databricks [0.1.0]#
- 与Databricks LLM API的集成 (#12432)
llama-index-llms-watsonx [0.1.6]#
- 更新了Watsonx基础模型 (#12493)
- 更新了watsonx集成中的基础模型名称 #12491
lama-index-postprocessor-rankllm-rerank [0.1.2]#
- 在RankLLM中添加RankGPT支持 (#12475)
llama-index-readers-microsoft-sharepoint [0.1.7]#
- 默认对SharePoint使用递归策略 (#12557)
llama-index-readers-web [0.1.8]#
- 修复了可读性网页阅读器中playwright异步API的bug (#12520)
llama-index-vector-stores-kdbai [0.1.5]#
- 修复了小型
to_list问题 (#12515)
llama-index-vector-stores-neptune [0.1.0]#
- 添加对Neptune Analytics作为向量存储的支持 (#12423)
llama-index-vector-stores-postgres [0.1.5]#
- 修复(postgres): 数值型元数据过滤器 (#12583)
[2024-03-31]#
llama-index-core [0.10.26]#
- 在QueryFusionRetriever中传递正确的查询包 (#12387)
- 更新llama_parse_json_element.py以修复列表错误 (#12402)
- 向检索工具添加节点后处理器 (#12415)
- 修复了在元素节点解析器的回退逻辑中未遵循用户指定的llm的错误(#12403)
- 为异步回调管理器事件记录正确的LLM响应键 (#12421)
- 对两个内置的react系统提示进行去重;同时使其能够从Markdown文件中读取 (#12307)
- 修复BatchEvalRunner中针对多评估器的eval_kwargs_lists的bug (#12418)
- 为向量存储索引insert_nodes添加回调管理器事件 (#12443)
- 修复了当聊天消息包含pydantic API对象时,将其序列化到聊天存储中的问题 (#12394)
- 修复了内存获取操作缓慢的问题(由多次调用get_all()引起)(#12394)
- 修复了智能体+工具消息对从内存中被截断的问题 (#12394)
- 为对象索引添加了
FnNodeMapping(#12391) - 使对象映射对于对象索引变为可选/隐藏 (#12391)
- 使从现有向量数据库创建对象索引更加容易 (#12391)
- 当LLM未能遵循react响应模板时,告知它 #12300
llama-index-embeddings-cohere [0.1.5]#
- 将cohere版本升级至5.1.1 (#12279)
llama-index-embeddings-itrex [0.1.0]#
- 添加Intel Transformers扩展的嵌入模型 (#12410)
llama-index-graph-stores-neo4j [0.1.4]#
- 使neo4j查询不区分大小写 (#12337)
llama-index-llms-cohere [0.1.5]#
- 将cohere版本升级至5.1.1 (#12279)
llama-index-llms-ipex-llm [0.1.0]#
- 添加ipex-llm集成 (#12322)
llama-index-llms-litellm [0.1.4]#
- 修复 litellm ChatMessage 角色验证错误 (#12449)
llama-index-llms-openai [0.1.14]#
- 在OpenAI中使用
FunctionCallingLLM基类 (#12227)
llama-index-packs-self-rag [0.1.4]#
- 修复llama-index-core依赖项 (#12374)
llama-index-postprocessor-cohere-rerank [0.1.4]#
- 将cohere版本升级至5.1.1 (#12279)
llama-index-postprocessor-rankllm-rerank [0.1.1]#
- 新增了RankLLM重新排序功能 (#12296)
- 修复了RankLLM的问题 (#12399)
llama-index-readers-papers [0.1.4]#
- 修复了路径名称的bug (#12366)
llama-index-vector-stores-analyticdb [0.1.1]#
- 新增 AnalyticDB 向量存储支持 (#12230)
llama-index-vector-stores-kdbai [0.1.4]#
- 修复了导入/自述文件中的拼写错误 (#12370)
llama-index-vector-stores-qdrant [0.1.5]#
- 为qdrant添加
in过滤运算符 (#12376)
[2024-03-27]#
llama-index-core [0.10.25]#
- 在KnowledgeGraphQueryEngine的NodeWithScore中添加评分 (#12326)
- 批量评估运行器修复 (#12302)
llama-index-embeddings-cohere [0.1.5]#
- 新增了对二进制/量化嵌入的支持 (#12321)
llama-index-llms-mistralai [0.1.10]#
- 为MistralAI添加自定义端点支持 (#12328)
llama-index-storage-kvstore-redis [0.1.3]#
- 修复从docs属性中检索RedisDocstore节点的问题 (#12324)
[2024-03-26]#
llama-index-core [0.10.24]#
- 在
LlamaDebugHandler中实现美观打印 (#12216) - 对pandas查询引擎实施更严格的解释器约束 (#12278)
- PandasQueryEngine 现在可以执行 'pd.*' 函数 (#12240)
- 修复文档存储删除函数中的元数据删除问题 (#12276)
- 改进的OpenAI智能体解析函数钩子 (#12062)
- 为SimpleDirectoryReader添加raise_on_error标志 (#12263)
- 移除核心模块中未捕获的openai导入 (#12262)
- 修复 download_llama_dataset 和 download_llama_pack (#12273)
- 实现EvalQueryEngineTool (#11679)
- 扩展AgentRunner的仪器化Span覆盖范围 (#12249)
- 新增函数调用智能体/LLM的概念(目前支持mistral)(#12222, )
llama-index-embeddings-huggingface [0.2.0]#
- 使用
sentence-transformers作为后端 (#12277)
llama-index-postprocessor-voyageai-rerank [0.1.0]#
- 添加了voyageai作为重新排序器 (#12111)
llama-index-readers-gcs [0.1.0]#
- 新增了Google云存储读取器 (#12259)
llama-index-readers-google [0.2.1]#
- 支持不同的驱动器 (#12146)
- 从Google Drive Reader中移除不必要的PyDrive依赖项 (#12257)
llama-index-readers-readme [0.1.0]#
- 新增了readme.com阅读器 (#12246)
llama-index-packs-raft [0.1.3]#
- 为RAFT添加了包 (#12275)
[2024-03-23]#
llama-index-core [0.10.23]#
- 在基础LLM类、OpenAI和MistralAI中新增了
(a)predict_and_call()函数 (#12188) - 修复了异步智能体流中
wait()的bug (#12187)
llama-index-embeddings-alephalpha [0.1.0]#
- 新增了alephalpha嵌入功能 (#12149)
llama-index-llms-alephalpha [0.1.0]#
- 新增alephalpha LLM (#12149)
llama-index-llms-openai [0.1.7]#
- 修复了异步智能体流中的
wait()错误 (#12187)
llama-index-readers-docugami [0.1.4]#
- 修复了docugami阅读器中的导入错误 (#12154)
llama-index-readers-file [0.1.12]#
- 修复远程文件系统中的PDFReader (#12186)
[2024-03-21]#
llama-index-core [0.10.22]#
- 将文档后端从sphinx更新为mkdocs,添加了全部API参考,进行了轻度重组,优化了搜索功能 (#11301)
- 为
BaseReader类添加了异步加载功能(目前是模拟异步)(#12156) - 修复
SimpleDirectoryReader中非本地文件系统的路径实现 (#12141) - 在instrumentation中添加args/kwargs到spans,为检索事件添加payloads (#12147)
- [react智能体] 遇到异常时明确提示,以便智能体能够自我修正 (#12137)
llama-index-embeddings-together [0.1.3]#
- 新增了速率限制处理功能 (#12127)
llama-index-graph-stores-neptune [0.1.3]#
- 添加对Amazon Neptune的支持作为图存储 (#12097)
llama-index-llms-vllm [0.1.7]#
- 修复VllmServer使其无需依赖CUDA的vllm核心即可工作 (#12003)
llama-index-readers-s3 [0.1.4]#
- 在S3Reader中使用S3FS (#12061)
llama-index-storage-docstore-postgres [0.1.3]#
- 添加了正确的kvstore依赖项 (#12157)
llama-index-storage-index-store-postgres [0.1.3]#
- 添加了正确的kvstore依赖项 (#12157)
llama-index-vector-stores-elasticsearch [0.1.6]#
- 修复es添加函数中未关闭的会话 #12135
llama-index-vector-stores-kdbai [0.1.3]#
- 添加对
KDBAIVectorStore的支持 (#11967)
[2024-03-20]#
llama-index-core [0.10.21]#
- 异步元素的延迟初始化 StreamingAgentChatResponse (#12116)
- 修复通过SynthesisEndEvent导致的流式生成器获取错误 (#12092)
- CLIP嵌入更多模型 (#12063)
llama-index-packs-raptor [0.1.3]#
- 在摘要模块中添加
num_workers参数 (#)
llama-index-readers-telegram [0.1.5]#
- 修复日期时间字段 (#12112)
- 新增选择帖子/消息时间范围的功能 (#12078)
llama-index-embeddings-openai [0.1.7]#
- 为OpenAI嵌入功能添加API版本/基础API作为可选参数 (#12091)
llama-index-networks [0.2.1]#
- 为网络检索器添加节点后处理功能 (#12027)
- 添加隐私安全网络演示 (#12027)
llama-index-callbacks-langfuse [0.1.3]#
- 杂务:提升langfuse依赖的最低版本 (#12077)
llama-index-embeddings-google [0.1.4]#
- 杂务:升级google-generativeai依赖项 (#12085)
llama-index-embeddings-gemini [0.1.5]#
- 杂务:升级google-generativeai依赖项 (#12085)
llama-index-llms-gemini [0.1.6]#
- 杂务:升级google-generativeai依赖项 (#12085)
llama-index-llms-palm [0.1.4]#
- 杂务:升级google-generativeai依赖项 (#12085)
llama-index-multi-modal-llms-google [0.1.4]#
- 杂务: 升级google-generativeai依赖项 (#12085)
llama-index-vector-stores-google [0.1.5]#
- 杂务: 升级google-generativeai依赖项 (#12085)
llama-index-storage-kvstore-elasticsearch [0.1.0]#
- 新增集成 (#12068)
llama-index-readers-google [0.1.7]#
- 修复 - Google Drive 无法加载同名文件的问题 (#12022)
llama-index-vector-stores-upstash [0.1.3]#
- 为UpstashVectorStore添加元数据过滤支持 (#12054)
llama-index-packs-raptor [0.1.2]#
- 修复:防止RaptorPack无限递归 (#12008)
llama-index-embeddings-huggingface-optimum [0.1.4]#
- 修复(OptimumEmbedding): 移除导致ONNX验证问题的token_type_ids
llama-index-llms-anthropic [0.1.7]#
- 修复:Anthropic LLM 合并相同角色的连续消息 (#12013)
llama-index-packs-diff-private-simple-dataset [0.1.0]#
- DiffPrivacy ICL 包 - OpenAI 完成型LLMs (#11881)
llama-index-cli [0.1.11]#
- 从download_llama_dataset命令中移除llama_hub_url关键字 (#12038)
[2024-03-14]#
llama-index-core [0.10.20]#
- 新增用于可观测性的
instrumentation模块 (#11831) - 允许为
CitationQueryEngine传入LLM参数 (#11914) - 更新了keyval文档存储,允许在命名空间之外更改后缀 (#11873)
- 为query_engine添加(部分)异步流式支持 #11949
llama-index-embeddings-dashscope [0.1.3]#
- 修复查询文本的嵌入类型 (#11901)
llama-index-embeddings-premai [0.1.3]#
- 支持premai嵌入 (#11954)
llama-index-networks [0.2.0]#
- 新增了对网络检索器的支持 (#11800)
llama-index-llms-anthropic [0.1.6]#
- 新增了对haiku的支持 (#11916)
llama-index-llms-mistralai [0.1.6]#
- 修复了ChatMessage的导入错误 (#11902)
llama-index-llms-openai [0.1.11]#
- 为AZURE_TURBO_MODELS添加了gpt-35-turbo-0125 (#11956)
- 修复了logprobs中nontype的错误 (#11967)
llama-index-llms-premai [0.1.4]#
- 支持premai llm (#11954)
llama-index-llms-solar [0.1.3]#
- 支持将solar作为LLM类 (#11710)
llama-index-llms-vertex [0.1.5]#
- 在vertex中添加对medlm的支持 (#11911)
llama-index-readers-goolge [0.1.6]#
- 为Google Drive阅读器添加了README文件和查询字符串 (#11724)
llama-index-readers-file [0.1.11]#
- 更新了ImageReader,添加了
plain_text选项以触发pytesseract (#11913)
llama-index-readers-pathway [0.1.3]#
- 使用纯请求以减少依赖项,简化代码 (#11924)
llama-index-retrievers-pathway [0.1.3]#
- 使用纯请求以减少依赖项,简化代码 (#11924)
llama-index-storage-docstore-mongodb [0.1.3]#
- 允许修改mongodb文档存储的后缀 (#11873)
llama-index-vector-stores-databricks [0.1.1]#
- 支持将Databricks向量搜索作为向量存储 (#10754)
llama-index-vector-stores-opensearch [0.1.8]#
- (重新)实现正确的删除功能 (#11959)
llama-index-vector-stores-postgres [0.1.4]#
- 修复了IN过滤器和OR文本搜索的问题 (#11872, #11927)
[2024-03-12]#
llama-index-cli [0.1.9]#
- 移除了chroma作为捆绑依赖项,以减少
llama-index的依赖项
llama-index-core [0.10.19]#
- 在
OpenAIllm类中引入针对速率限制的重试机制 (#11867) - 在
SQLDatabase中添加了SQL表结构的表注释 (#11774) - 在
ChatResponse对象中添加了LogProb类型 (#11795) - 引入
LabelledSimpleDataset(#11805) - 修复了插入包含不可序列化对象的
IndexNode的问题 (#11836) - 修复了在
CondenseQuestionChatEngine中将响应写入历史记录时出现的流式聊天类型错误 (#11856) - 改进JSON查询引擎的后处理功能 (#11862)
llama-index-embeddings-cohere [0.1.4]#
- 修复了异步参数错误 (#11822)
llama-index-embeddings-dashscope [0.1.2]#
- 修复了pydantic导入问题 (#11765)
llama-index-graph-stores-neo4j [0.1.3]#
- 验证连接性后正确关闭连接 (#11821)
llama-index-llms-cohere [0.1.3]#
- 新增对
command-r模型的支持 (#11852)
llama-index-llms-huggingface [0.1.4]#
- 修复了带有特殊标记的流式解码问题 (#11807)
llama-index-llms-mistralai [0.1.5]#
- 新增对最新和开源模型的支持 (#11792)
llama-index-tools-finance [0.1.1]#
- 修复了传入股票新闻API get时的小错误 (#11772)
llama-index-vector-stores-chroma [0.1.6]#
- 精简了chroma依赖项 (#11775)
llama-index-vector-stores-lancedb [0.1.3]#
- 修复删除功能 (#11825)
llama-index-vector-stores-postgres [0.1.3]#
- 支持嵌套元数据过滤器 (#11778)
[2024-03-07]#
llama-index-callbacks-deepeval [0.1.3]#
- 更新回调处理器的导入路径 (#11754)
llama-index-core [0.10.18]#
- 确保
LoadAndSearchToolSpec加载文档对象 (#11733) - 修复了
QueryFusionRetriever中无节点的问题 (#11759) - 允许在
BatchEvalRunner中为不同评估器使用不同的运行时参数 (#11727) - 修复了fsspec +
SimpleDirectoryReader的问题 (#11665) - 从指南评估器中移除
asyncio.run()要求 (#11719)
llama-index-embeddings-voyageai [0.1.3]#
- 更新voyage embeddings以使用正确的客户端 (#11721)
llama-index-indices-managed-vectara [0.1.3]#
- 修复了非摘要模式下vectara查询引擎的问题 (#11668)
llama-index-llms-mymagic [0.1.5]#
- 为JSON输出添加
return_output选项,包含查询和响应(#11761)
llama-index-packs-code-hierarchy [0.1.0]#
- 新增支持
CodeHiearchyAgentPack,可实现代码库的智能体遍历功能 (#10671)
llama-index-packs-cohere-citation-chat [0.1.3]#
- 新增了一个用于引用和与Cohere聊天的llama-pack (#11697)
llama-index-vector-stores-milvus [0.1.6]#
- 防止在添加文档时强制调用
flush()(#11734)
llama-index-vector-stores-opensearch [0.1.7]#
- 元数据列名中的小拼写错误 (#11751)
llama-index-vector-stores-tidbvector [0.1.0]#
- 初步支持TiDB向量存储 (#11635)
llama-index-vector-stores-weaviate [0.1.4]#
- 针对元数据过滤器中
int字段的小修复 (#11742)
[2024-03-06]#
新格式!将尝试按包报告变更。
llama-index-cli [0.1.8]#
- 更新
upgrade命令的映射关系 (#11699)
llama-index-core [0.10.17]#
- 为
QueryFusionRetriever添加relative_score和dist_based_score功能 (#11667) - 检查异步智能体队列中的
none(#11669) - 允许为
BaseSQLTableQueryEngine自定义优化模板 (#11378) - 更新llama-packs的映射关系 (#11699)
- 修复了在KG索引中提取相关文本时的索引错误 (#11695)
- 当没有节点时从合成器返回正确的响应类型 (#11701)
- 在DocumentSummaryIndex中继承元数据到摘要 (#11671)
- 在SQL查询引擎中继承回调管理器 (#11662)
- 修复了智能体流式输出未写入聊天记录的问题 (#11675)
- 修复了在使用智能体流式传输函数调用时,
none增量存在的一个小错误 (#11713)
llama-index-multi-modal-llms-anthropic [0.1.2]#
- 新增支持多模态模型
haiku和sonnet(#11656)
llama-index-packs-finchat [0.1.0]#
- 新增了一个llama-pack,用于分层智能体+金融聊天 (#11387)
llama-index-readers-file [0.1.8]#
- 新增支持检查NLTK文件是否已下载 (#11676)
llama-index-readers-json [0.1.4]#
- 使用创建文档时传入的元数据 (#11626)
llama-index-vector-stores-astra-db [0.1.4]#
- 更新警告消息中的措辞 (#11702)
llama-index-vector-stores-opensearch [0.1.7]#
- 避免在代码中调用
nest_asyncio.apply()以防止给用户造成混淆性错误(#11707)
llama-index-vector-stores-qdrant [0.1.4]#
- 捕获RPC错误 (#11657)
[0.10.16] - 2024-03-05#
新功能#
- 支持Anthropic的新模型 (#11623, #11612)
- 更轻松地创建聊天提示 (#11583)
- 新增了一个raptor检索器llama-pack (#11527)
- 通过bedrock改进批量cohere嵌入 (#11572)
- 新增了对Vertex AI嵌入的支持 (#11561)
错误修复 / 细节优化#
- 确保异步嵌入生成中的顺序 (#11562)
- 修复了CSV读取器中空元数据的问题 (#11563)
- 可组合检索器的序列化修复 (#11617)
- 修复了Milvus元数据过滤器支持 (#11566)
- 修复了clickhouse向量存储中的pydantic导入问题 (#11631)
- 修复了gemini/vertext-gemini的系统提示问题 (#11511)
[0.10.15] - 2024-03-01#
新功能#
- 新增FeishuWikiReader (#11491)
- 新增了videodb检索器集成 (#11463)
- 为OpenSearch向量存储添加了异步支持 (#11513)
- 新增LangFuse一键回调处理器 (#11324)
错误修复 / 细节优化#
- 修复了异步聊天流中的死锁问题 (#11548)
- 在SimpleDirectoryReader中改进了隐藏文件检查 (#11496)
- 修复了使用SimpleDirectoryReader时文档元数据中的空值问题 (#11501)
- 修复了jsonalyze查询引擎中sqlite工具的问题 (#11519)
- 为ollama多模态LLM添加了基础URL和超时设置 (#11526)
- 更新了查询融合检索器中的重复处理 (#11542)
- 修复了kg索引结构更新中的错误 (#11475)
[0.10.14] - 2024-02-28#
新功能#
- 发布了llama-index-networks (#11413)
- Jina 重排序器 (#11291)
- 新增了DuckDuckGo智能体搜索工具(#11386)
- 用于chatml的辅助函数 (#10272)
- 为智能体添加了brave搜索工具 (#11468)
- 新增Friendli LLM集成 (#11384)
- 仅针对chromadb的元数据查询 (#11328)
错误修复 / 细节优化#
- 修复了合成器中继承llm回调的问题 (#11404)
- 修复milvus中的删除错误 (#11315)
- 修复了pinecone kwargs问题 (#11422)
- Supabase 元数据过滤修复 (#11428)
- 修复了Gemini嵌入中的API基础问题 (#11393)
- 修复elasticsearch向量存储的await问题 (#11438)
- vllm服务器CUDA修复 (#11442)
- 修复了将LLM传递给上下文聊天引擎的问题 (#11444)
- 为cohere嵌入设置输入类型 (#11288)
- Azure AD令牌的默认值 (#10377)
- 为react智能体重新添加了提示混合功能 (#10610)
- 修复了gemini的系统角色问题 (#11481)
- 修复了均值聚合池化返回numpy浮点值的问题 (#11458)
- 改进了JSONQueryEngine的json路径解析功能 (#9097)
[0.10.13] - 2024-02-26#
新功能#
- 为KodaRetriever添加了一个llama-pack,用于实时alpha调优 (#11311)
- 新增对
mistral-large的支持 (#11398) - 针对HuggingFace嵌入模型(如SFR-Embedding-Mistral)的末令牌池化模式 (#11373)
- 为SimpleDirectoryReader添加了fsspec支持 (#11303)
错误修复 / 细节优化#
- 修复了上下文窗口与提示助手的问题 (#11379)
- 将OpenSearch向量存储迁移至BasePydanticVectorStore (#11400)
- 修复了fireworks LLM中的函数调用问题 (#11363)
- 使cohere嵌入类型更加自动化 (#11288)
- 改进react智能体中的函数调用功能 (#11280)
- 修复了MockLLM的导入问题 (#11376)
[0.10.12] - 2024-02-22#
新功能#
- 新增了
llama-index-postprocessor-colbert-rerank包 (#11057) MyMagicAILLM (#11263)MariaTalkLLM (#10925)- 为GitHub阅读器添加重试功能 (#10980)
- 新增了FireworksAI嵌入和LLM模块 (#10959)
错误修复 / 细节优化#
- 修复了weaviate中的字符串格式化问题 (#11294)
- 修复了语义分割器中的差一错误 (#11295)
- 修复了
download_llama_pack对多文件的支持问题 (#11272) - 从包中移除了
BUILD文件 (#11267) - 放宽了所有包的Python版本要求 (#11267)
- 修复了chromadb的参数问题 (#11104)
[0.10.11] - 2024-02-21#
错误修复 / 细节优化#
- 修复了异步完成的多模态LLM (#11064)
- 修复了llamaindex-cli导入的问题 (#11068)
[0.10.10] - 2024-02-20#
I'm still a bit wonky with our publishing process -- apologies. This is just a version bump to ensure the changes that were supposed to happen in 0.10.9 actually did get published. (AF)
[0.10.9] - 2024-02-20#
- 添加llama-index-cli依赖项
[0.10.7] - 2024-02-19#
新功能#
- 新增了Self-Discover llamapack (#10951)
错误修复 / 细节优化#
- 修复了CICD中的代码检查问题 (#10945)
- 修复了使用远程图存储的问题 (#10971)
- 在NoText响应合成器中添加了缺失的LLM参数 (#10971)
- 修复了rankgpt中的openai导入问题 (#10971)
- 修复了在openai嵌入中将模型名称解析为字符串的问题 (#10971)
- 句子窗口节点解析器中的差一错误 (#10971)
[0.10.6] - 2024-02-17#
首先,对于之前几个版本遗漏更新日志表示歉意。我们正在尝试为400多个软件包制定最佳流程。
在某个时间点,每个软件包都将拥有专门的更新日志。
但现在,让我们来看"master"版本的更新日志。
新功能#
- 新增
NomicHFEmbedding(#10762) - 新增
MinioReader(#10744)
错误修复 / 细节优化#
- 针对ClickHouse向量存储的多项修复 (#10799)
- 修复neo4j向量存储中的索引名称 (#10749)
- 修复了sagemaker嵌入的问题 (#10778)
- 修复了在分割节点时的性能问题 (#10766)
- 修复了重新排序器 + b25 中的非浮点数值 (#10930)
- OpenAI-agent 应作为 openai 程序的依赖项 (#10930)
- 为查询管道组件添加缺失的快捷导入 (#10930)
- 修复NLTK和tiktoken未正确与核心捆绑的问题 (#10930)
- 恢复
llama_index.core.__version__(#10930)
[0.10.3] - 2024-02-13#
错误修复 / 细节优化#
- 修复了在
as_chat_engine中传入LLM的问题 (#10605) - 修复了anthropic的系统提示格式问题 (#10603)
- 修复了elasticsearch向量存储中关于
__version__的错误 (#10656) - 修复了openai pydantic程序的导入问题 (#10657)
- 将客户端添加回opensearch向量存储导出 (#10660)
- 修复了SimpleDirectoryReader未正确使用文件加载器的错误 (#10655)
- 为RankGPT添加了延迟LLM初始化功能 (#10648)
- 修复了 bedrock 嵌入
from_credentials传递模型名称的问题 (#10640) - 恢复了TelegramReader的近期更改 (#10625)
[0.10.0, 0.10.1] - 2024-02-12#
重大变更#
- 引入了多项变更。详情请参阅完整博客文章。
[0.9.48] - 2024-02-12#
错误修复 / 细节优化#
- 恢复BedrockEmbdding的弃用API (#10581)
[0.9.47] - 2024-02-11#
v0.10版本前的最后一个补丁!
新功能#
- 向查询管道添加条件链接 (#10520)
- 重构条件链接 + 添加到烹饪手册 (#10544)
- 智能体 + 查询管道清理 (#10563)
错误修复 / 细节优化#
- 添加休眠以修复聊天流中的延迟问题 (#10339)
- OllamaMultiModal kwargs (#10541)
- 更新数据摄取管道以处理空文档 (#10543)
- 修复次要拼写错误 (#10516)
- 修复elasticsearch异步检查 (#10549)
- 文档/更新Slack演示Colab (#10534)
- 为PGVectorStore添加使用IN操作符的功能 (#10547)
- 修复智能体重置 (#10562)
- 修复多个文档中MD重复的节点ID (#10564)
[0.9.46] - 2024-02-08#
新功能#
- 更新嵌入模型的池化策略 (#10536)
- 新增多模态视频RAG示例 (#10530)
- 添加SECURITY.md (#10531)
- 将智能体模块指南上移一级 (#10519)
错误修复 / 细节优化#
- 修复了Deeplake问题 (#10529)
- 为llamaindex添加Cohere部分 (#10523)
- 修复 md 元素 (#10510)
[0.9.45.post1] - 2024-02-07#
新功能#
- 升级了deeplake向量数据库以使用BasePydanticVectorStore (#10504)
错误修复 / 细节优化#
- 修复不一致表格的MD解析器 (#10488)
- 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError 错误 (#10491)
[0.9.45] - 2024-02-07#
新功能#
- 重构:新增AgentRunner.from_llm方法 (#10452)
- 支持为非聊天型LLMS自定义提示格式 (#10466)
- 将cryptography从41.0.7升级至42.0.0 (#10467)
- 为Colbert索引添加持久化和加载方法 (#10477)
- 允许自定义智能体接收用户输入 (#10450)
错误修复 / 细节优化#
- 从arize-phoenix全局回调处理器中移除exporter (#10465)
- 修复Dashscope qwen llm的bug (#10471)
- 修复:调用AWS Bedrock模型的问题 (#10443)
- 将Azure AI搜索(原Azure认知搜索)向量存储集成更新至最新客户端SDK 11.4.0稳定版 + 更新Jupyter笔记本示例 (#10416)
- 修复部分导入问题 (#10485)
[0.9.44] - 2024-02-05#
新功能#
- ollama 视觉教程手册 (#10438)
- 支持Gemini的"transport"配置 (#10457)
- 添加Upstash Vector支持 (#10451)
[0.9.43] - 2024-02-03#
新功能#
- 添加多模态ollama (#10434)
错误修复 / 细节优化#
- 更新AstraDB的基础类 (#10435)
[0.9.42.post1] - 2024-02-02#
新功能#
- 为Base nodes解析器添加异步支持 (#10418)
[0.9.42] - 2024-02-02#
新功能#
- 添加对
gpt-3.5-turbo-0125的支持 (#10412) - 为rag cli添加了
create-llama支持 (#10405)
错误修复 / 细节优化#
- 修复了lance-db向量存储中的一些小错误 (#10404)
- 修复了ollama中的流式传输错误 (#10407)
[0.9.41] - 2024-02-01#
新功能#
- Nomic Embedding (#10388)
- Dashvector支持稀疏向量 (#10386)
- 使用MarkDownParser进行表格问答与性能测试 (#10382)
- 简易网页阅读器 (#10395)
错误修复 / 细节优化#
- 修复KeywordExtractor中的完整节点内容 (#10398)
[0.9.40] - 2024-01-30#
新功能#
- 改进并修复MarkdownElementNodeParser的bug (#10340)
- 修复并改进对新模型的Perplexity支持 (#10319)
- 确保将system_prompt传递给Perplexity LLM (#10326)
- 扩展了BaseRetrievalEvaluator以包含可选的PostProcessor (#10321)
[0.9.39] - 2024-01-26#
新功能#
- 支持新的GPT Turbo模型 (#10291)
- 支持为Sentence Transformer微调提供多文档支持(#10297)
错误修复 / 细节优化#
- 修复了Marvin导入问题 (#9864)
[0.9.38] - 2024-01-25#
新功能#
- 支持新的OpenAI v3嵌入模型 (#10279)
错误修复 / 细节优化#
- 对qdrant的稀疏嵌入进行额外检查 (#10275)
[0.9.37] - 2024-01-24#
新功能#
- 新增了一个RAG命令行工具 (#10193)
- 新增了一个textai向量存储 (#10240)
- 新增了基于PostgreSQL的文档存储和索引存储功能 (#10233)
- 在工具规格中指定工具规格 (#10263)
错误修复 / 细节优化#
- 修复了ollama聊天中的序列化错误 (#10230)
- 为
SentenceTransformerRerank添加了缺失字段 (#10225) - 修复标题提取问题 (#10209, #10226)
- nit: 在库/文档中更明显地展示可链式输出解析器 (#10262)
- :bug: 摘要索引未继承排除的元数据键 (#10259)
[0.9.36] - 2024-01-23#
新功能#
- 新增对
SageMakerEmbedding的支持 (#10207)
错误修复 / 细节优化#
- 修复OpenAI助手中重复的
file_id问题 (#10223) - 修复程序的循环依赖问题 (#10222)
- 对来自同一父文档的节点组运行
TitleExtractor(#10209) - 改进vectara自动检索 (#10195)
[0.9.35] - 2024-01-22#
新功能#
beautifulsoup4dependency to new optional extrahtml(#10156)- 将
BaseNode.hash设为@property(#10163) - 中微子 (#10150)
- 功能: JSONalyze查询引擎 (#10067)
- [进行中] 添加自定义混合检索器笔记本 (#10164)
- 为ChromaVectorStore类添加from_collection方法 (#10167)
- CLI实验v0版本:提问 (#10168)
- 使react智能体提示更易于编辑 (#10154)
- 添加智能体查询管道 (#10180)
错误修复 / 细节优化#
- 更新supabase vecs元数据过滤函数以支持多字段 (#10133)
- 修复/改进LanceDB集成的代码问题 (#10144)
beautifulsoup4可选依赖项 (#10156)- 修复 qdrant aquery 混合搜索 (#10159)
- 将hash设为@property属性 (#10163)
- 修复: 在安装llama-index[postgres]时的poetry错误 (#10171)
- [文档] 更新jaguar向量存储文档 (#10179)
- 移除未启动的finish_message的使用 (#10188)
- Lantern向量存储文档更新 (#10192)
- 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)
[0.9.34] - 2024-01-19#
新功能#
- 新增了SageMakerEndpointLLM (#10140)
- 新增了对Qdrant筛选器的支持 (#10136)
错误修复 / 细节优化#
- 为Claude 2:1更新bedrock工具 (#10139)
- Bug修复:修复了使用多进程时的死锁问题 (#10125)
[0.9.33] - 2024-01-17#
新功能#
- 添加了RankGPT作为后处理器 (#10054)
- 确保与新Pinecone客户端版本分叉的向后兼容性 (#9995)
- 递归检索所有内容 (#10019)
错误修复 / 细节优化#
- Bug修复:当在包含逗号的表格上使用markdown元素解析器时 (#9926)
- 扩展自动检索笔记本 (#10065)
- 更新了llm_generators中的属性名称 (#10070)
- jaguar向量存储将text_tag添加到add()中的add_kwargs (#10057)
[0.9.32] - 2024-01-16#
新功能#
- 新增了查询时行检索功能,并修复了结构化数据查询管道的一些小问题 (#10061)
- 具备上下文感知的ReActive智能体 + 更新失效链接 (#10058)
[0.9.31] - 2024-01-15#
新功能#
- 在查询管道中添加了选择器和路由器 (#9979)
- 为qdrant向量存储添加了仅稀疏搜索功能 (#10041)
- 新增了Tonic评估器 (#10000)
- 为Firestore文档存储添加异步支持 (#9983)
- 实现mongodb文档存储的
put_all方法 (#10014)
错误修复 / 细节优化#
- 根据
max_string_length正确截断SQL查询结果 (#10015) - 修复了针对base64字符串的
node.resolve_image()(#10026) - 修复了cohere系统提示角色 (#10020)
- 在SentenceSplitter中移除冗余的token计数操作 (#10053)
[0.9.30] - 2024-01-11#
新功能#
- 实现了一个使用嵌入进行语义分割的节点解析器 (#9988)
- 新增对Anyscale嵌入模型的支持 (#9470)
错误修复 / 细节优化#
- nit: 修复pandas获取提示的问题 (#10001)
- 修复:令牌计数错误 (#9912)
- 将jinja2从3.1.2升级到3.1.3 (#9997)
- 修复 qdrant 混合搜索的边界情况 (#9993)
- 错误修复:修复了Sphinx生成错误 (#9944)
- 修复:
CodeSplitter中language在赋值前被使用的问题 (#9987) - 修复章节“使用文本分割器…”中不一致的名称“text_parser”(#9980)
- :bug: 修复批量大小 (#9982)
- 为查询管道添加自动异步执行功能 (#9967)
- :bug: 修复初始化问题 (#9977)
- 使用SimpleDirectoryReader实现并行加载 (#9965)
- 不要强制删除milvus中的索引 (#9974)
[0.9.29] - 2024-01-10#
新功能#
- 新增对together.ai模型的支持 (#9962)
- 新增了对批量Redis/Firestore键值存储的支持,异步Firestore键值存储 (#9827)
- 并行化
IngestionPipeline.run()(#9920) - 新增查询管道组件:function、argpack、kwargpack (#9952)
错误修复 / 细节优化#
- 更新了可选的langchain导入以避免警告 (#9964)
- 如果嵌入空节点则抛出错误 (#9953)
[0.9.28] - 2024-01-09#
新功能#
- 新增对Nvidia TenorRT LLM的支持 (#9842)
- 允许在智能体构建期间设置
tool_choice(#9924) - 为
QueryPipeline添加了流式支持 (#9919)
错误修复 / 细节优化#
- 为llamaindex阅读器设置一致的文档ID (#9923, #9916)
- 移除HuggingFaceEmbedding中不必要的模型输入 (#9922)
- 将
tool_choice标志传播到下游API (#9901) - 向聊天记忆
from_defaults()添加chat_store_key(#9928)
[0.9.27] - 2024-01-08#
新功能#
- 添加查询管道 (#9908)
- 功能:Azure 多模态支持(修复:#9471)(#9843)
- 添加PostgreSQL Docker支持 (#9906)
- Vectara自动检索器 (#9865)
- 支持Redis聊天存储 (#9880)
- 将更多类迁移至核心模块 (#9871)
错误修复 / 细节优化 / 小型功能#
- 将
tool_choice标志传播到下游API (#9901) - 从faiss查询中过滤掉负索引 (#9907)
- 为qdrant负载添加了NE过滤器 (#9897)
- 修复MyScale查询结果中错误的ID分配问题 (#9900)
- Qdrant 文本匹配过滤器 (#9895)
- 混合搜索的Fusion top k (#9894)
- 修复 (#9867) 在异步调用期间使用sync_to_async避免阻塞 (#9869)
- 将单个节点传入compute_scores会返回浮点数值 (#9866)
- 移除多余的代码检查步骤 (#9878)
- 添加vectara链接 (#9886)
[0.9.26] - 2024-01-05#
新功能#
- 新增了
BaseChatStore和SimpleChatStore抽象类,用于专用聊天记忆存储 (#9863) - 支持将自定义的
tree_sitter解析器传入CodeSplitter(#9845) - 创建了一个
BaseAutoRetriever基类,允许其他检索器扩展为自动模式 (#9846) - 新增支持Nvidia Triton LLM (#9488)
- 新增了
DeepEval一键可观测性功能 (#9801)
错误修复 / 细节优化#
- 更新了指导集成以适配最新版本 (#9830)
- 为文档/摄取流水线(#9847)实现了文本存储的可选功能
- 为文档添加了缺失的
sphinx-automodapi依赖项 (#9852) - 在Weaviate查询结果中返回实际的节点ID (#9854)
- 为LangChainLLM添加了提示格式化功能 (#9844)
[0.9.25] - 2024-01-03#
新功能#
- 为数据集生成添加了并发限制 (#9779)
- 新增
deepeval一键可观测性处理器 (#9801) - 新增了jaguar向量存储 (#9754)
- 新增测试版多模态ReAct智能体 (#9807)
错误修复 / 细节优化#
- 将OpenAI嵌入的默认批量大小更改为100 (#9805)
- 为qdrant upserts正确使用批量大小 (#9814)
_verify_source_safety使用抽象语法树(AST)而非正则表达式进行严格的安全检查 (#9789)- 在元素节点解析器中使用提供的LLM (#9776)
- 更新了旧版向量数据库加载函数,使其更加健壮 (#9773)
- 在AzureOpenAI中使用提供的http客户端 (#9772)
[0.9.24] - 2023-12-30#
新功能#
- 为BEIR评估添加重新排序器 (#9743)
- 添加Pathway集成。(#9719)
- 自定义智能体实现 + 笔记本 (#9746)
错误修复 / 细节优化#
- 修复vllm的beam搜索:添加缺失参数 (#9741)
- 修复混合搜索的alpha参数 (#9742)
- 修复令牌计数器 (#9744)
- BM25 分词器小写转换 (#9745)
[0.9.23] - 2023-12-28#
错误修复 / 细节优化#
- 文档:修复 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
- 使LLM补全程序更加通用 (#9731)
- 重构空集合的MM向量存储和索引 (#9717)
- 添加IF语句以使用"Select"检查Schema (#9712)
- 允许在
download_module和download_llama_pack中跳过模块加载 (#9734)
[0.9.22] - 2023-12-26#
新功能#
- 为
SimpleDirectoryReader添加了.iter_data()方法 (#9658) - 为
OllamaLLM添加了异步支持 (#9689) - 扩展对Pinecone过滤器中
in和not in操作符的支持 (#9683)
错误修复 / 细节优化#
- 提升BM25Retriever检索性能 (#9675)
- 改进qdrant混合搜索的错误处理 (#9707)
- 修复了
ChromaVectorStore中None的处理问题 (#9697) - 修复了当Postgres模式不存在时的创建问题 (#9712)
[0.9.21] - 2023-12-23#
新功能#
- 添加Zilliz云作为托管索引 (#9605)
错误修复 / 细节优化#
- Bedrock客户端和LLM修复 (#9671, #9646)
[0.9.20] - 2023-12-21#
新功能#
- 新增了
insert_batch_size参数,用于限制创建索引时内存中保存的嵌入向量数量,默认值为2048 (#9630) - 改进自动检索功能 (#9647)
- 可配置的节点ID生成函数 (#9574)
- 引入了动作输入解析器 (#9575)
- qdrant稀疏向量支持 (#9644)
- 在数据摄取管道中引入了更新插入(upserts)和删除功能 (#9643)
- 将Zilliz Cloud Pipeline添加为托管索引 (#9605)
- 通过VertexAI添加对Google Gemini模型的支持 (#9624)
- 支持在自动检索器上允许额外的元数据过滤器 (#9662)
错误修复 / 细节优化#
- 修复LM格式强制笔记本中的pip安装命令 (#9648)
- 修复更多链接和文档 (#9633)
- 一些Bedrock的小问题和修复 (#9646)
[0.9.19] - 2023-12-20#
新功能#
- 新增llama数据集
LabelledEvaluatorDataset和LabelledPairwiseEvaluatorDataset(#9531)
[0.9.18] - 2023-12-20#
新功能#
- 多文档自动检索指南 (#9631)
错误修复 / 细节优化#
- 修复(vllm): 使Vllm的'complete'方法行为与其他LLM类保持一致 (#9634)
- 修复文档链接及其他文档问题 (#9632)
[0.9.17] - 2023-12-19#
新功能#
- [示例] 添加用户反馈 (#9601)
- 功能:为检索评估添加Cohere ReRank相关性指标 (#9495)
错误修复 / 细节优化#
- 修复Gemini聊天模式 (#9599)
- 修复了
types-protobuf作为主要依赖项的问题 (#9595) - 为TextEmbeddingInference类添加可选的身份验证令牌(#9606)
- 修复:获取最新工具调用时索引越界问题 (#9608)
- 修复(azure_openai.py): 为子类重载添加缺失的返回语句 (#9598)
- 修复ollama API调用中'formatted'和'format'参数的混淆问题 (#9594)
[0.9.16] - 2023-12-18#
新功能#
- 智能体重构:分步执行 (#9584)
- 添加OpenRouter,包含Mixtral演示 (#9464)
- 为neo4j向量存储添加混合搜索功能 (#9530)
- 为Google语义检索器添加对认证服务账户的支持 (#9545)
错误修复 / 细节优化#
- 修复了
LLM.system_prompt缺少default=None的问题 (#9504) - 修复 #9580:正确整合元数据 (#9582)
- 集成:Gradient[Embeddings,LLM] - SDK升级 (#9528)
- 将mixtral 8x7b模型添加到anyscale可用模型列表 (#9573)
- Gemini 模型检查 (#9563)
- 使用最新变更更新OpenAI微调 (#9564)
- 修复/重新引入
WHERE过滤器到PgVectorStore的稀疏查询中 (#9529) - 将Ollama API更新至ollama v0.1.16版本 (#9558)
- ollama: 移除无效的
formatted选项 (#9555) - 在optimum推送中添加设备 #9541 (#9554)
- Gemini 嵌入模型的标题与内容差异 (#9547)
- 修复将pydantic字段转换为浮点数的问题 (#9542)
[0.9.15] - 2023-12-13#
新功能#
- 新增对Google Gemini文本+视觉模型的全面支持 (#9452)
- 新增了Google语义检索器 (#9440)
- 为OpenAI助手新增了
from_existing()方法及异步支持 (#9367)
错误修复 / 细节优化#
- 修复了huggingface LLM系统提示和消息提示 (#9463)
- 修复了ollama额外kwargs的使用问题 (#9455)
[0.9.14] - 2023-12-11#
新功能#
- 添加 MistralAI 大语言模型 (#9444)
- 添加MistralAI嵌入功能 (#9441)
- 添加
Ollama嵌入类 (#9341) - 添加
FlagEmbeddingReranker用于重新排序 (#9285) - 功能:PgVectorStore 支持高级元数据过滤 (#9377)
- 为SQL查询引擎添加了
sql_only参数以避免执行SQL (#9422)
错误修复 / 细节优化#
- 功能/PgVector 支持自定义 hnsw.ef_search 和 ivfflat.probes (#9420)
- 修正F1分数定义,更新版权年份 (#9424)
- 将Replicate多模态模型中多个图像输入的报错改为警告 (#9360)
- 移除了GPT授权的
aiostream依赖项(#9403) - 修复使用Cohere模型的BedrockEmbedding结果 (#9396)
- 在react智能体中仅捕获有效的工具名称 (#9412)
- 修复了在Azure Cosmos中
top_k被乘以10的问题 (#9438) - 修复了OpenSearch的混合搜索功能 (#9430)
重大变更#
- 更新了基础
LLM接口以匹配LLMPredictor(#9388) - 弃用
LLMPredictor(#9388)
[0.9.13] - 2023-12-06#
新功能#
- 为
LabelledRagDataset添加了批量预测支持 (#9332)
错误修复 / 细节优化#
- 修复了faiss向量存储的保存和加载功能 (#9330)
[0.9.12] - 2023-12-05#
新功能#
- 为openai/azure添加了一个选项
reuse_client以帮助解决异步超时问题。设置为False可看到改进(#9301) - 新增支持
vLLM大语言模型 (#9257) - 添加对 Python 3.12 的支持 (#9304)
- 支持
claude-2.1模型名称 (#9275)
错误修复 / 细节优化#
- 修复bedrock cohere嵌入的嵌入格式 (#9265)
- 在weaviate向量存储中使用
delete_kwargs进行过滤 (#9300) - 修复了自动构建qdrant客户端的问题 (#9267)
[0.9.11] - 2023-12-03#
新功能#
- 使
reference_contexts在LabelledRagDataset中变为可选参数 (#9266) - 重组
download模块 (#9253) - 在数据摄取管道中新增了文档管理功能 (#9135)
- 为
LabelledRagDataset添加文档 (#9228) - 为
LabelledRagDataset添加提交模板笔记本及其他文档更新 (#9273)
错误修复 / 细节优化#
- 将numpy转换为列表以适配
InstructorEmbedding(#9255)
[0.9.10] - 2023-11-30#
新功能#
- 向量存储的高级元数据过滤器 (#9216)
- Amazon Bedrock 嵌入新模型 (#9222)
- 新增了PromptLayer回调集成功能 (#9190)
- 为
OpenAIAssistant复用文件ID (#9125)
重大变更/弃用#
- 弃用 ExactMatchFilter (#9216)
[0.9.9] - 2023-11-29#
新功能#
- 为
LlamaDataset添加新的抽象功能 (#9165) - 为
AstraDBVectorStore添加元数据过滤和MMR模式支持 (#9193) - 允许使用最新版本的
scikit-learn(#9213)
重大变更/废弃功能#
- 新增了
LocalAI演示并开始弃用周期 (#9151) - 弃用
evaluation模块中的QueryResponseDataset和DatasetGenerator(#9165)
错误修复 / 细节优化#
- 修复
download_utils.py中指向错误仓库的错误 (#9215) - 在
AzureOpenAILLM中使用azure_deployment关键字参数 (#9174) - 修复
AstraDBVectorStore集成的相似度分数返回问题 (#9193)
[0.9.8] - 2023-11-26#
新功能#
- 为
ObjectIndex添加支持持久化的persist和persist_from_dir方法 (#9064) - 新增异步元数据提取与管道支持 (#9121)
- 重新添加了对节点中起始/结束字符索引的支持 (#9143)
错误修复 / 细节优化#
- 修复全局服务上下文中某些kwargs未正确设置的问题 (#9137)
- 针对
memory.get()在系统/前缀消息过大时的小修复 (#9149) - 全局服务上下文的小幅修复 (#9137)
[0.9.7] - 2023-11-24#
新功能#
- 添加对
PGVectoRsStore的支持 (#9087) - 出于安全考虑强制要求
requests>=2.31,同时取消对urllib3的固定版本限制 (#9108)
错误修复 / 细节优化#
- 增加了上下文聊天引擎的默认内存令牌限制 (#9123)
- 在
CondensePlusContextChatEngine中添加了系统提示,该提示会被添加到context_prompt之前 (#9123) - 修复了
CondensePlusContextChatEngine未正确使用聊天历史记录的bug (#9129)
[0.9.6] - 2023-11-22#
新功能#
- 为openai LLMs添加了
default_headers参数 (#9090) - 新增支持
download_llama_pack()和 LlamaPack 集成 - 新增支持
llamaindex-cli命令行工具
错误修复/细节优化#
- 为HuggingFace嵌入存储normalize作为布尔值 (#9089)
[0.9.5] - 2023-11-21#
错误修复 / 细节优化#
- 修复了AzureOpenAI逻辑中推断流式数据块是否为工具调用的错误 (#9018)
新功能#
FastEmbed嵌入提供程序 (#9043)- 更精确地测试
OpenAILike(#9026) - 为每个检索器添加了回调管理器 (#8871)
- 能够通过
OpenAILike绕过max_tokens推理限制 (#9032)
错误修复 / 细节优化#
- 修复了在估算分块大小时格式化聊天提示模板的bug (#9025)
- 沙盒化的Pandas执行环境,修复CVE-2023-39662漏洞 (#8890)
- 为Python 3.8恢复了
mypy(#9031) - 放宽了
dataclasses-json的版本范围限制, 并从pandas中移除了不必要的jinja2额外依赖项 (#9042)
[0.9.4] - 2023-11-19#
新功能#
- 新增
CondensePlusContextChatEngine(#8949)
小功能/错误修复/细节优化#
- 修复了
OpenAIAgent在聊天历史中插入错误的bug (#9000) - 修复了LiteLLM和新版OpenAI客户端中的多个错误 (#9003)
- 为perplexity llm添加了上下文窗口属性 (#9012)
- 将
node_parser属性添加回服务上下文 (#9013) - 重构MM检索器类 (#8998)
- 修复SupabaseVectorIndexDemo中的TextNode实例化问题 (#8994)
[0.9.3] - 2023-11-17#
新功能#
- 添加perplexity LLM集成 (#8734)
错误修复 / 细节优化#
- 修复新版OpenAI客户端的令牌计数问题 (#8981)
- 修复Postgres向量数据库中的一个小型pydantic错误 (#8962)
- 修复了
HierarchicalNodeParser中chunk_overlap和doc_id的错误 (#8983)
[0.9.2] - 2023-11-16#
新功能#
- 新增了多模态RAG评估的新笔记本指南 (#8945)
- 新增了
MultiModalRelevancyEvaluator和MultiModalFaithfulnessEvaluator(#8945)
[0.9.1] - 2023-11-15#
新功能#
- 新增了Cohere Reranker的微调功能 (#8859)
- 在
AzureOpenAI大语言模型中支持自定义httpx客户端 (#8920)
错误修复 / 细节优化#
- 修复了
set_global_service_context未传播设置的问题 (#8940) - 修复了使用Google Palm嵌入构建索引的问题 (#8936)
- 修复了在解析没有文本的ImageDocuments/Nodes时出现的小问题 (#8938)
- 修复了Astra DB中大数据插入的问题 (#8937)
- 优化智能体的
QueryEngineTool(#8933)
[0.9.0] - 2023-11-15#
新功能 / 重大变更 / 废弃内容#
- 新增用于数据摄取和转换的
IngestionPipeline概念 - 数据摄取和转换现在会自动缓存
- 更新了节点解析/文本分割/元数据提取模块的接口
- 更改默认的分词器,以及自定义分词器
- PyPi 的打包/安装变更(减少冗余,新增安装选项)
- 更可预测且一致的导入路径
- 此外,测试版新增功能:用于处理文本和图像的多模态RAG模块!
- 更多详情请访问:
https://medium.com/@llama_index/719f03282945
[0.8.69.post1] - 2023-11-13#
错误修复 / 细节优化#
- 将最大weaivate删除大小增加到10,000 (#8887)
- 最终pickling残留修复 (#8902)
[0.8.69] - 2023-11-13#
错误修复 / 细节优化#
- 修复了加载pickled对象时的bug (#8880)
- 修复
download_loader中custom_path与custom_dir的问题 (#8865)
[0.8.68] - 2023-11-11#
新功能#
- OpenAI 智能体助手 + 高级检索指南 (#8863)
- 添加检索API基准测试 (#8850)
- 新增JinaEmbedding类 (#8704)
错误修复 / 细节优化#
- 改进了OpenAI的默认超时/重试机制 (#8819)
- 为OpenAI重新添加密钥验证 (#8819)
- 禁用自动下载LLM/嵌入模型功能,提供更友好的错误提示 (#8819)
- 修复OpenAI助手工具创建+检索笔记本 (#8862)
- 快速修复 复制多模态示例 (#8861)
- 修复:路径被当作隐藏处理 (#8860)
- 修复 Replicate 多模态 LLM + 笔记本 (#8854)
- 功能/引用元数据 (#8722)
- 修复SimpleMultiModalQueryEngine中ImageNode从NodeWithScore继承的类型问题 (#8844)
[0.8.67] - 2023-11-10#
新功能#
- 高级多模态检索示例与文档 (#8822, #8823)
错误修复 / 细节优化#
- 修复
CitationQueryEngine的检索器节点后处理器 (#8818) - 修复大多数场景下的
cannot pickle 'builtins.CoreBPE' object问题 (#8835)
[0.8.66] - 2023-11-09#
新功能#
- 在
OpenAIPydanticProgram中支持使用新版OpenAI客户端进行并行函数调用 (#8793)
错误修复 / 细节优化#
- 修复了使用新版OpenAI客户端时pydantic程序中的bug (#8793)
- 修复了不可列出的fsspec对象的问题 (#8795)
[0.8.65] - 2023-11-08#
新功能#
OpenAIAgent并行函数调用 (#8738)
新功能#
- 正确支持Hugging Face推荐模型 (#8784)
错误修复 / 细节优化#
- 修复了
embeddings.__all__的缺失导入问题 (#8779)
重大变更/废弃功能#
- 在
OpenAI(LLM)中使用tool_choice替代function_call,以及使用tool替代functions(#8738) - 弃用
to_openai_function改用to_openai_tool(#8738)
[0.8.64] - 2023-11-06#
新功能#
OpenAIAgent并行函数调用 (#8738)- 添加AI助手智能体 (#8735)
- OpenAI GPT4v 抽象层 (#8719)
- 为
Lantern向量存储添加支持 (#8714)
错误修复 / 细节优化#
- 修复在elastic search向量存储中返回零节点的问题 (#8746)
- 为
SimpleDirectoryReader循环添加try/except异常处理,避免因单个文档导致程序崩溃 (#8744) - 修复异步嵌入中的
deployment_name问题 (#8748)
[0.8.63] - 2023-11-05#
新功能#
- 为最新的
openai客户端包添加了原生同步和异步客户端支持 (#8712) - 新增对
AzureOpenAIEmbedding的支持 (#8712)
错误修复 / 细节优化#
- 修复了关于
download_loader的"no host supplied"错误 (#8723)
重大变更#
OpenAIEmbedding不再支持azure,已迁移至AzureOpenAIEmbedding类 (#8712)
[0.8.62.post1] - 2023-11-05#
重大变更#
- 新增开发日模型 (#8713)
- 将
max_docs参数从构造函数移至SimpleMongoReader的lazy_load_data()方法 (#8686)
[0.8.61] - 2023-11-05#
新功能#
- [实验性] 超参数调优器 (#8687)
错误修复 / 细节优化#
- 修复CohereAIModelName类中的拼写错误:cohere light模型缺少v3版本 (#8684)
- 更新 deeplake.py (#8683)
[0.8.60] - 2023-11-04#
新功能#
- 提示优化指南 (#8659)
- VoyageEmbedding (#8634)
- 为
YoutubeTranscriptReader添加多语言支持 (#8673) - 情感提示指南 (#8674)
错误修复 / 细节优化#
- 将mistral 7b instruct v0.1添加到可用的anyscale模型中 (#8652)
- 使pgvector的设置(扩展、模式和表创建)变为可选 (#8656)
- 允许为Pinecone向量存储初始化stores_text变量 (#8633)
- 修复: 支持Azure AD (#8667)
- 修复多线程环境中的nltk错误 (#8668)
- 修复cohereai笔记本中的Google Colab链接 (#8677)
- 将max_tokens传递给
Coherellm (#8672)
[0.8.59] - 2023-11-02#
- 深度记忆支持 (#8625)
- 添加CohereAI嵌入功能 (#8650)
- 添加Azure AD(Microsoft Entra ID)支持 (#8667)
[0.8.58] - 2023-11-02#
新功能#
- 添加
lm-format-enforcer集成以支持结构化输出 (#8601) - Google Vertex 支持 (#8626)
[0.8.57] - 2023-10-31#
新功能#
- 添加
VoyageAIEmbedding集成 (#8634) - 新增微调评估器笔记本 (#8596)
- 添加
SingleStoreDB集成 (#7991) - 添加对ChromaDB PersistentClient的支持 (#8582)
- 添加对DataStax Astra DB的支持 (#8609)
错误修复 / 细节优化#
- 更新Weaviate中的dataType (#8608)
- 在混合检索器模式的知识图谱索引中,
- 当"未找到关联关系"时返回通过关键词搜索找到的节点
- 修复聊天引擎中的上下文长度超出错误 (#8530)
- 从知识图谱(KG)中检索所有三元组的实际内容 (#8579)
- 在
KnowledgeGraphIndex的混合检索模式中,当嵌入无法找到关系时,返回关键词检索找到的节点 (#8575) - 优化检索工具的内容并修复小错误 (#8588)
[0.8.56] - 2023-10-30#
新功能#
- 添加Amazon
BedrockEmbedding(#8550) - 将
HuggingFaceEmbedding聚焦于Pooling枚举的池化操作 (#8467) - 添加对IBM WatsonX LLM的支持 (#8587)
错误修复 / 细节优化#
- [Bug] 修复 Clarifai 类 (#8529)
- 修复Bedrock LLM的重试机制 (#8528)
- 修复:VectorStore的QueryResult总是将保存的Node作为TextNode返回 (#8521)
- 为SimpleDirectoryReader添加了默认的file_metadata以获取许多后处理器使用的基本元数据 (#8486)
- 处理chromadb中值为None的元数据 (#8584)
[0.8.55] - 2023-10-29#
新功能#
- 允许提示信息通过
function_mappings接收函数参数 (#8548) - 添加高级提示 + "RAG的提示工程"笔记本 (#8555)
- 利用Replicate API来服务LLaVa模型 (#8539)
错误修复 / 细节优化#
- 更新拉取请求模板以包含Google Colab支持 (#8525)
[0.8.54] - 2023-10-28#
新功能#
- 展示如何在结构化输出上微调llama2的笔记本 (#8540)
- 新增了GradientAIFineTuningHandler
- 在ServiceContext中添加了pydantic_program_mode
- 使用LlamaIndex初始化多模态检索 (#8507)
错误修复 / 细节优化#
- 在
ChatEngine使用模式的.md文档中添加缺失的导入 (#8518) - :bug: 修复了异步添加问题 (#8531)
- 修复:在usage_pa...中添加所需的CondenseQuestionChatEngine导入 (#8518)
- 为LongLLMLingua.ipynb添加导入LongLLMLinguaPostprocessor (#8519)
[0.8.53] - 2023-10-27#
新功能#
- 文档重构 (#8500) 对文档结构进行了全面调整。主要变更包括
- 新增了一个重要的"理解"章节
- 新增了一个重要的"优化"章节
- 全面更新的入门内容
- 对模块指南进行分类并移至单独章节
[0.8.52] - 2023-10-26#
新功能#
- 添加longllmlingua (#8485)
- 为笔记本添加Google Colab支持 (#7560)
错误修复 / 细节优化#
- 通过cassio.init适配Cassandra VectorStore构造函数的数据库连接 (#8255)
- 允许在托管索引中配置服务上下文和存储上下文 (#8487)
[0.8.51.post1] - 2023-10-25#
新功能#
- 为特斯拉10k RAG添加Llava多模态问答示例 (#8271)
- 修复React聊天智能体流式传输未按预期工作的错误 (#8459)
错误修复 / 细节优化#
- 补丁:为路由器查询引擎的响应元数据添加选定结果,修复错误 (#8483)
- 添加Jina AI嵌入笔记本 + 修复HuggingFace嵌入问题 (#8478)
- 添加
is_chat_model以进行复制 (#8469) - 将
toml-sort重新添加回pre-commit(#8267) - 为本地
test_s3_kvstore添加了LocationConstraint(#8263)
[0.8.50] - 2023-10-24#
新功能#
- 在不同模块(查询引擎、合成器等)中公开提示 (#8275)
[0.8.49] - 2023-10-23#
新功能#
- 新增LLM集成
- 支持通过
huggingface_hub[inference]使用Hugging Face推理API的conversational(对话)、text_generation(文本生成)和feature_extraction(特征提取)端点 (#8098) - 添加Amazon Bedrock LLMs (#8223)
- 添加AI21 Labs LLMs (#8233)
- 为兼容OpenAI的API服务器添加OpenAILike LLM类 (#7973)
- 新增/更新的向量存储集成
- 添加DashVector (#7772)
- 添加腾讯向量数据库 (#8173)
- 为PGVectorStore添加自定义Postgres模式的选项,而不仅限于公共模式 (#8080)
- 添加Gradient微调引擎 (#8208)
- 文档(常见问题): 常见问题解答 (#8249)
错误修复 / 细节优化#
- 修复
ReActAgent.stream_chat中的不一致问题 (#8147) - 弃用GuardrailsOutputParser中的部分函数 (#8016)
- 简化依赖项 (#8236)
- 修复了LiteLLM的错误 (#7885)
- 更新 Predibase LLM (#8211)
[0.8.48] - 2023-10-20#
新功能#
- 为MyScale向量存储添加
DELETE功能 (#8159) - 添加SQL检索器 (#8197)
- 添加语义内核文档格式 (#8226)
- 优化MyScale混合搜索并添加MyScale向量存储的
DELETE功能 (#8159)
错误修复 / 细节优化#
- 修复了ReActAgent.from_tools()中的额外kwargs参数 (#8206)
- 修复了提示模板中缺失的空格问题 (#8190)
- 移除异常情况下自动下载llama2-13B的功能 (#8225)
[0.8.47] - 2023-10-19#
新功能#
- 为文本转SQL添加响应合成功能 (#8196)
- 新增支持
LLMRailsEmbedding(#8169) - 使用PyTorch推断MPS设备 (#8195)
- 合并查询/文本前置 (#8189)
[0.8.46] - 2023-10-18#
新功能#
- 添加微调路由支持 + 嵌入选择器 (#8174)
- 添加更多文档转换器 (#8156)
错误修复 / 细节优化#
- 为HuggingFace嵌入添加归一化处理 (#8145)
- 优化MyScale混合搜索 (#8159)
- 修复了提示中重复的
FORMAT_STR问题 (#8171) - 新增:支持为PandasQueryEngine设置输出参数{'max_colwidth': xx} (#8110)
- 修复了cohere llm中一个参数的描述问题 (#8163)
- 修复Firestore客户端信息 (#8166)
[0.8.45] - 2023-10-13#
新功能#
- 新增了对微调交叉编码器的支持 (#7705)
- 新增了
QueryFusionRetriever用于合并多个检索器+查询增强功能(#8100) - 在
pre-commit中添加了nb-clean以减少PR差异(#8108) - 支持
TextEmbeddingInference嵌入 (#8122)
错误修复 / 细节优化#
- 改进了
BM25Retriever接口以支持接收BaseNode对象 (#8096) - 修复了
BM25Retriever分词器未按预期工作的错误 (#8096) - 在Python 3.8中使mypy检查通过 (#8107)
ReActAgent添加缺失的super().__init__调用 (#8125)
[0.8.44] - 2023-10-12#
新功能#
- 添加pgvector SQL查询引擎 (#8087)
- 新增HoneyHive一键可观测性功能 (#7944)
- 添加对SQLAlchemy V1和V2的支持 (#8060)
[0.8.43.post1] - 2023-10-11#
新功能#
- 将
codespell迁移至pre-commit(#8040) - 新增了
prettier用于自动格式化除.py以外的扩展文件 (#8072)
错误修复 / 细节优化#
- 修复了
HuggingFaceLLM中遗漏的f字符串 (#8075) - 放宽对numpy/pandas的要求
[0.8.43] - 2023-10-10#
新功能#
- 新增支持
GradientEmbedding嵌入模型 (#8050)
错误修复 / 细节优化#
- 为
HuggingFaceLLM添加了messages_to_prompt参数 (#8054) - 改进开源模型的选择和SQL解析功能 (#8054)
- 修复了智能体为工具生成过多kwargs参数的bug (#8054)
- 改进了选择和问题生成的提示与调试功能 (#8056)
[0.8.42] - 2023-10-10#
新功能#
LocalAI更直观的模块级变量命名 (#8028)- 为Markdown文档启用
codespell(#7972) - 添加非结构化表格元素节点解析器 (#8036)
- 新增:为Qdrant向量存储添加异步upsert功能 (#7968)
- 添加cohere llm (#8023)
错误修复 / 细节优化#
- 解析React智能体回答中的多行输出 (#8029)
- 为关键字
as_retriever调用添加正确命名的kwargs参数 (#8011) - 更新对RAGAS LlamaIndex集成的引用 (#8035)
- Vectara 错误修复 (#8032)
- 修复:ChromaVectorStore 可能尝试添加超过 chromadb 批处理限制的数据 (#8019)
- 修复Mbox阅读器中的get_content方法 (#8012)
- 在WeaviateVectorStore中应用kwarg过滤器 (#8017)
- 避免出现除零错误 (#8027)
LocalAI直观的模块级变量命名 (#8028)- zep/fix: 导入与类型定义 (#8030)
- 重构:使用
str.join(#8020) - 使用适当的元数据字符串进行节点解析 (#7987)
[0.8.41] - 2023-10-07#
新功能#
- You.com 检索器 (#8024)
- 通过
metadata_names参数将字段从mongodb提取到元数据中 (#8001) - 简化了
LocalAI.__init__,同时保持相同的行为 (#7982)
错误修复 / 细节优化#
- 使用最长的元数据字符串进行元数据感知的文本分割 (#7987)
- 处理mongodb读取器中的字符串列表 (#8002)
- 移除
OpenAI.class_type,因为它是无效代码 (#7983) - 修复
HuggingFaceLLM.device_map的类型提示 (#7989)
[0.8.40] - 2023-10-05#
新功能#
- 新增对
ClarifaiLLM 的支持 (#7967) - 添加对函数微调的支持 (#7971)
重大变更#
- 更新文档摘要索引 (#7815)
- 将默认检索模式更改为嵌入
- 默认在索引时将摘要嵌入向量存储(而不是实时计算嵌入)
- 支持在llm检索器中配置top k参数
[0.8.39] - 2023-10-03#
新功能#
- 为查询引擎添加了对pydantic对象输出的支持 (#7893)
ClarifaiEmbedding类已添加以支持嵌入功能 (#7940)- Markdown节点解析器、平面文件阅读器和简单文件节点解析器 (#7863)
- 新增支持mongdb atlas的
$vectorSearch功能 (#7866)
错误修复 / 细节优化#
- 新增支持在discord阅读器中使用消息元数据 (#7906)
- 修复
LocalAI的聊天功能在没有max_tokens参数时的问题 (#7942) - 添加了
codespell用于自动化检查(#7941) ruff现代化改造和自动修复 (#7889)- 实现自定义的SQLDatabase类 (#7929)
- 更新LlamaCPP的context_params属性 (#7945)
- 修复重复嵌入问题 (#7949)
- 添加
codespell工具用于强制规范拼写 (#7941) - 支持在
venv环境下本地使用mypy(#7952) - Vectara - 小幅更新 (#7954)
- 避免在CI中重新安装
pydantic(#7956) - 将tree_sitter_languages移动到data_requirements.txt中 (#7955)
- 为
PGVectorStore添加cache_okay参数以帮助抑制TSVector警告 (#7950)
[0.8.38] - 2023-10-02#
新功能#
- 更新了
KeywordNodePostprocessor以使用spacy支持更多语言 (#7894) LocalAI支持全局或按查询使用/chat/completions与/completions(#7921)- 新增了关于使用REBEL + 维基百科过滤构建知识图谱的笔记本 (#7919)
- 新增支持
ElasticsearchEmbedding(#7914)
[0.8.37] - 2023-09-30#
新功能#
- 支持
LocalAI大语言模型 (#7913) - 验证防止配置错误的块大小 (#7917)
错误修复 / 细节优化#
- 简化自然语言SQL响应到SQL解析,扩展了自然语言SQL提示 (#7868)
- 提升向量数据库集成的向量存储检索速度 (#7876)
- 新增替换{{和}}的功能,并修复了JSON解析递归问题 (#7888)
- 优化后的JSON解码错误 (#7891)
- 优化了LLM未提供SQL时的SQL错误提示 (#7900)
- 优化了
HuggingFaceLLM的ImportError错误提示 (#7904) - 评估修复:修复数据集响应生成,为评估器添加评分 (#7915)
[0.8.36] - 2023-09-27#
新功能#
- 新增"从零开始构建RAG笔记本" - 开源/本地 (#7864)
错误修复 / 细节优化#
- 修复elasticsearch混合评分问题 (#7852)
- 将Langchain依赖项
get_color_mapping和print_text替换为内部实现 (#7845) - 修复与azure的异步流式传输问题 (#7856)
- 避免在子问题生成器中出现
NotImplementedError()(#7855) - 修复predibase初始化问题 (#7859)
- 提升了最低langchain版本要求,并将提示导入从langchain更改为llamaindex (#7862)
[0.8.35] - 2023-09-27#
错误修复 / 细节优化#
- 修复递归检索器中文本节点丢失的问题 (#7840)
- 当callback_manager为None时,在智能体与其llm之间共享callback_manager (#7844)
- 修复pandas查询引擎 (#7847)
[0.8.34] - 2023-09-26#
新功能#
- 新增了对
KonkoLLM的支持 (#7775) - 添加上下文前后句子 (#7821)
- 通过OpenAI库实现EverlyAI与LlamaIndex的集成 (#7820)
- 将Arize Phoenix追踪器添加到全局处理器 (#7835)
错误修复 / 细节优化#
- 标准化从ElasticSearch向量存储返回的分数 (#7792)
- 修复了
refresh_ref_docs()函数中操作顺序的错误(#7664) - 延迟
PGVectorStore的 postgresql 连接直到实际需要时 (#7793) - 修复
SimpleVectorStore删除方法中与元数据过滤器相关的KeyError错误 (#7829) - 修复
SimpleVectorStore删除方法中与元数据过滤器相关的KeyError错误 (#7831) - 解决PyYAML导入错误 (#7784)
- ElasticsearchStore: 更新User-Agent + 添加示例docker compose (#7832)
StorageContext.persist支持Path(#7783)- 更新ollama.py (#7839)
- 修复 self._session_pool 的bug (#7834)
[0.8.33] - 2023-09-25#
新功能#
- 添加成对评估器 + 基准测试自动合并检索器 (#7810)
错误修复 / 细节优化#
- 对嵌入类进行了小幅清理 (#7813)
- 对
OpenAIEmbedding的杂项更新 (#7811)
[0.8.32] - 2023-09-24#
新功能#
- 新增对
HuggingFaceEmbedding、InstructorEmbedding和OptimumEmbedding的原生支持 (#7795) - 为MyScale向量存储添加了元数据过滤和混合搜索功能 (#7780)
- 允许为Milvus自定义文本字段名称 (#7790)
- 为
VectorIndexAutoRetriever添加对vector_store_query_mode的支持 (#7797)
错误修复 / 细节优化#
- 更新
LanceDBVectorStore以处理分数和距离 (#7754) - 将LLM传递给
CondenseQuestionChatEngine中的memory_cls(#7785)
[0.8.31] - 2023-09-22#
新功能#
- 添加pydantic元数据提取器 (#7778)
- 允许用户在Azure认知向量存储中设置嵌入维度 (#7734)
- 添加语义相似度评估器 (#7770)
错误修复 / 细节优化#
- 📝文档: 更新聊天机器人教程和Notebook (#7767)
- 修复了空节点导致的响应合成器问题 (#7773)
- 修复自动向量检索器中的
NotImplementedError(#7764) - 修复了"KnowledgeGraphQueryEngine"中多个kwargs值的错误 (#7763)
- 允许设置Azure认知搜索的维度 (#7734)
- 将服务上下文传递给索引以生成数据集 (#7748)
- 修复选择器模板的输出解析器 (#7774)
- 更新 Chatbot_SEC.ipynb (#7711)
- 针对Cassandra测试的linter/类型检查器友好性改进 (#7771)
- 暴露
PgVectorStore的调试选项 (#7776) - llms/openai: 通过考虑
prompt_filter_results字段修复 Azure OpenAI (#7755)
[0.8.30] - 2023-09-21#
新功能#
- 添加对
gpt-3.5-turbo-instruct的支持 (#7729) - 添加对
TimescaleVectorStore的支持 (#7727) - 新增
LongContextReorder功能以解决中间丢失问题 (#7719) - 添加检索评估 (#7738)
错误修复 / 细节优化#
- 为异步上下文聊天引擎添加了节点后处理器 (#7731)
- 为Postgres TSV列添加了唯一索引名称 (#7741)
[0.8.29.post1] - 2023-09-18#
错误修复 / 细节优化#
- 修复嵌入功能的langchain导入错误 (#7714)
[0.8.29] - 2023-09-18#
新功能#
- 为基础简单向量存储添加了元数据过滤功能 (#7564)
- 添加低级路由器指南 (#7708)
- 新增CustomQueryEngine类 (#7703)
错误修复 / 细节优化#
- 修复lite-llm中的上下文窗口元数据 (#7696)
[0.8.28] - 2023-09-16#
新功能#
- 添加CorrectnessEvaluator (#7661)
- 新增对
Ollama大语言模型的支持 (#7635) - 新增
HWPReader(#7672) - 简化Portkey LLM接口 (#7669)
- 为
ElasticsearchStore向量存储添加了异步操作支持 (#7613) - 新增支持
LiteLLM(#7600) - 新增批量评估运行器 (#7692)
错误修复 / 细节优化#
- 避免异步LangChain嵌入出现
NotImplementedError错误 (#7668) - 提升了LLM选择器的可靠性 (#7678)
- 修复了输出解析器和完成模型的
query_wrapper_prompt和system_prompt(#7678) - 修复了引用查询引擎中的节点属性继承问题 (#7675)
重大变更#
- 重构并更新
BaseEvaluator接口以保持更高一致性(#7661) - 使用
evaluate函数处理通用输入 - 使用
evaluate_response函数处理来自llama index查询引擎的Response对象 - 使用更明确的命名更新现有评估器
ResponseEvaluator->FaithfulnessEvaluatorQueryResponseEvaluator->RelevancyEvaluator- 为了向后兼容,旧名称保留为类别名
[0.8.27] - 2023-09-14#
新功能#
- 添加低级教程部分 (#7673)
错误修复 / 细节优化#
- 默认的delta应该是一个字典 (#7665)
- 改进LLMPredictor上的查询包装逻辑 (#7667)
[0.8.26] - 2023-09-12#
新功能#
- 添加非线性嵌入适配器 (#7658)
- 在知识微调笔记本中添加"微调 + RAG"评估功能 (#7643)
错误修复 / 细节优化#
- 修复了句子分割器的块重叠问题 (#7590)
[0.8.25] - 2023-09-12#
新功能#
- 新增了
AGENT_STEP回调事件类型 (#7652)
错误修复 / 细节优化#
- 允许
simple模式与as_chat_engine()配合使用 (#7637) - 修复了azure流式处理中的索引错误 (#7646)
- 从llama-cpp中移除了
pdb(#7651)
[0.8.24] - 2023-09-11#
新功能#
- 指南:通过微调来记忆知识 (#7626)
- 新增了为评估模块自定义提示模板的功能 (#7626)
错误修复#
- 正确检测
llama-cpp-python版本以加载默认的GGML或GGUF格式的llama2-chat-13b模型(#7616) - 正确传入
summary_template参数到RetrieverQueryEngine.from_args()方法中 (#7621) - 修复wandb回调中的span类型 (#7631)
[0.8.23] - 2023-09-09#
错误修复#
- 确保在llama2的首次聊天提示中包含上下文和系统提示(#7597)
- 在优化过程中避免出现负分块大小错误 (#7607)
- 修复分层节点解析器中针对小文档的关系问题 (#7611)
- 更新Anyscale端点集成,支持完整的流式传输和异步功能 (#7602)
- 在
OpenAI、AzureOpenAI和Anyscale中更好地支持将凭据作为LLM构造函数参数传递 (#7602)
重大变更#
- 更新Milvus向量存储以支持过滤器和动态模式 (#7286)
- 查看更新后的笔记本了解使用方法
- 将NLTK添加为核心依赖项以支持默认句子分割器 (#7606)
[0.8.22] - 2023-09-07#
新功能#
- 新增对ElasticSearch向量存储的支持 (#7543)
错误修复 / 细节优化#
- 修复了
ElasticSearchReader中的小_index错误 (#7570) - 修复了全局服务上下文中提示助手设置的错误 (#7576)
- 再次移除OpenAI嵌入中的换行符 (#7588)
- 修复了在服务上下文中设置
query_wrapper_prompt的小错误 (#7585)
重大变更/废弃的API改动#
- 清理向量存储接口以使用
BaseNode而非NodeWithEmbedding - 对于大多数用户来说,这是一个无操作变更
- 对于直接操作
VectorStore抽象层并手动构建NodeWithEmbedding对象的用户,这是一个较小的破坏性变更。请直接使用带embedding设置的TextNode来替代NodeWithEmbedding。
[0.8.21] - 2023-09-06#
新功能#
- 添加嵌入适配器微调引擎 + 指南 (#7565)
- 新增支持Azure Cognitive Search向量存储 (#7469)
- 支持在supabase中删除 (#6951)
- 新增对Espilla向量存储的支持 (#7539)
- 新增对AnyScale LLM的支持 (#7497)
错误修复 / 细节优化#
- 默认使用用户可配置的top-k参数在
VectorIndexAutoRetriever中 (#7556) - 捕获结构化响应的验证错误 (#7523)
- 修复流式优化模板 (#7561)
[0.8.20] - 2023-09-04#
新功能#
- 新增了Portkey LLM集成 (#7508)
- 支持postgres/pgvector混合搜索 (#7501)
- 升级递归检索器节点参考笔记本 (#7537)
[0.8.19] - 2023-09-03#
新功能#
- 将列表索引替换为摘要索引 (#7478)
- 将列表索引重命名为摘要索引 第2部分 (#7531)
[0.8.18] - 2023-09-03#
新功能#
- 添加智能体微调指南 (#7526)
[0.8.17] - 2023-09-02#
新功能#
- 使(部分)加载器可序列化 (#7498)
- 为递归检索添加节点引用 (#7522)
错误修复 / 细节优化#
- 在分割过程中当元数据过大时抛出信息性错误 (#7513)
- 在简单节点解析器中允许使用langchain分割器 (#7517)
[0.8.16] - 2023-09-01#
错误修复 / 细节优化#
- 修复文档中指向Marvin笔记本的链接 (#7504)
- 确保在
SimpleWebPageReader中元数据不为None(#7499) - 修复了KGIndex可视化问题 (#7493)
- 改进了知识图谱索引中的空响应处理 (#7493)
[0.8.15] - 2023-08-31#
新功能#
- 新增支持
MarvinEntityExtractor元数据提取器 (#7438) - 为SimpleWebPageReader添加了url_metadata回调功能 (#7445)
- 扩展了回调日志记录事件 (#7472)
错误修复 / 细节优化#
- 仅针对OpenAI中的文本001嵌入模型将换行符转换为空格 (#7484)
- 修复非Nebula索引的
KnowledgeGraphRagRetriever(#7488) - 支持在
PGVectorStore中定义嵌入维度 (#7491) - 大幅提升了基础向量存储的相似度计算速度 (#7494)
[0.8.14] - 2023-08-30#
新功能#
- 功能:在Graph RAG中支持非知识图谱的异构图 (#7459)
- RAG指南 (#7480)
错误修复 / 细节优化#
- 改进OpenAI微调模型的解析功能 (#7474)
- 进行一些代码去重处理 (#7468)
- 支持在HF LLMs中为query_wrapper_prompt同时使用字符串和模板 (#7473)
[0.8.13] - 2023-08-29#
新功能#
- 添加嵌入微调 (#7452)
- 新增对RunGPT LLM的支持 (#7401)
- 与DeepEval的集成指南和笔记本 (#7425)
- 新增了
VectorIndex和VectaraRetriever作为托管索引 (#7440) - 新增支持
to_tool_list以检测和使用异步函数 (#7282)
[0.8.12] - 2023-08-28#
新功能#
- 添加OpenAI微调类 (#7442)
- Service Context 转字典/从字典转回 (#7395)
- 新增微调指南 (#7429)
小功能/细节/错误修复#
- 添加如何运行FalkorDB docker的示例 (#7441)
- 更新root.md以使用get_response_synthesizer预期类型。(#7437)
- 修复MonsterAPI Pydantic版本v2/v1支持问题。文档更新 (#7432)
[0.8.11.post3] - 2023-08-27#
新功能#
- AutoMergingRetriever (#7420)
[0.8.10.post1] - 2023-08-25#
新功能#
- 新增支持通过MonsterAPI使用
MonsterLLM(#7343) - 支持NebulaGraphStore中的注释字段和int类型VID (#7402)
- 为DynamoDB添加了可配置的端点 (#6777)
- 为Refine响应合成器添加结构化答案过滤功能 (#7317)
错误修复 / 细节优化#
- 为json文件阅读器使用
utf-8编码 (#7390) - 修复实体提取器初始化问题 (#7407)
[0.8.9] - 2023-08-24#
新功能#
- 新增对FalkorDB/RedisGraph图存储的支持 (#7346)
- 新增了定向子图RAG (#7378)
- 新增支持
BM25Retriever(#7342)
错误修复 / 细节优化#
- 为
XinferenceLLM添加了max_tokens参数 (#7372) - 支持在多线程应用中创建缓存目录 (#7365)
- 确保temperature对于openai是一个浮点数 (#7382)
- 在知识图谱检索器中移除重复主题 (#7378)
- 添加了对pydantic v1和v2的支持,以便其他应用程序能够继续推进 (#7394)
重大变更/废弃的API更改#
- 重构提示模板 (#7319)
- 使用
BasePromptTemplate进行通用类型处理 - 使用
PromptTemplate、ChatPromptTemplate、SelectorPromptTemplate作为核心实现 - 使用
LangchainPromptTemplate以实现与Langchain提示模板的兼容性 - 在代码库中,完全用通用的
BasePromptTemplate替换特定的提示类(例如SummaryPrompt)进行类型标注。 - 为了向后兼容,保留
Prompt作为PromptTemplate的别名。 - 重大变更:移除对
Prompt.from_langchain_prompt的支持,请改用template=LangchainPromptTemplate(lc_template)。
[0.8.8] - 2023-08-23#
新功能#
OpenAIFineTuningHandler用于收集LLM输入/输出以进行OpenAI微调 (#7367)
错误修复 / 细节优化#
- 添加对
claude-instant-1.2的支持 (#7369)
[0.8.7] - 2023-08-22#
新功能#
- 支持微调的OpenAI模型 (#7364)
- 新增对Cassandra向量存储的支持 (#6784)
- 支持工具函数中的pydantic字段 (#7348)
错误修复 / 细节优化#
- 修复
OpenAIAgent中强制函数调用导致的无限循环问题 (#7363)
[0.8.6] - 2023-08-22#
新功能#
- 自动与递归检索器笔记本 (#7353)
- BagelDB的读取器和向量存储,附带示例笔记本 (#7311)
错误修复 / 细节优化#
- 在重试源查询引擎中使用服务上下文作为中间索引 (#7341)
- 针对提示助手和聊天模型的临时修复 (#7350)
- 在未安装相关包时正确跳过单元测试 (#7351)
[0.8.5.post2] - 2023-08-20#
新功能#
- 新增对FireStore文档存储/索引存储的支持 (#7305)
- 添加递归智能体笔记本 (#7330)
错误修复 / 细节优化#
- 修复Azure pydantic错误 (#7329)
- 修复回调跟踪ID(将其设为上下文变量)(#7331)
[0.8.5.post1] - 2023-08-18#
新功能#
- Awadb 向量存储 (#7291)
错误修复 / 细节优化#
- 修复OpenAI llm温度类型的bug
[0.8.5] - 2023-08-18#
新功能#
- 在服务上下文中为开源LLM公开系统提示/查询包装器提示 (#6647)
- 将默认的MyScale索引格式更改为
MSTG(#7288) - 为聊天引擎/智能体添加了追踪功能 (#7304)
- 将LLM和嵌入迁移到pydantic (#7289)
错误修复 / 细节优化#
- 修复句子分割器错误 (#7303)
- 修复句子分割器无限循环问题 (#7295)
[0.8.4] - 2023-08-17#
错误修复 / 细节优化#
- 改进SQL查询解析 (#7283)
- 修复从全局服务上下文加载embed_model的问题 (#7284)
- 在迁移到pydantic v2之前限制langchain版本 (#7297)
[0.8.3] - 2023-08-16#
新功能#
- 新增知识图谱RAG检索器 (#7204)
错误修复 / 细节优化#
- 在OpenAI LLM类构造函数中接受
api_key关键字参数 (#7263) - 修复为
StreamingAgentChatResponse的不同实例创建独立队列实例的问题 (#7264)
[0.8.2.post1] - 2023-08-14#
新功能#
- 新增对Rockset作为向量存储的支持 (#7111)
错误修复#
- 修复了可能导致LLM失效的服务上下文定义中的错误 (#7261)
[0.8.2] - 2023-08-14#
新功能#
- 通过将服务上下文中的LLM或嵌入模型设置为
None来禁用它们 (#7255) - 使用
embed_model="local:语法解析几乎任何huggingface嵌入模型 (#7255)" - 异步工具调用支持 (#7239)
错误修复 / 细节优化#
- 更新了用于添加和查询的supabase kwargs (#7103)
- 对默认提示进行小幅调整,以支持更通用的查询功能 (#7254)
- 使
CustomLLM的回调管理器变为可选 + 文档更新 (#7257)
[0.8.1] - 2023-08-13#
新功能#
- 功能:为ContextChatEngine添加node_postprocessors (#7232)
- 添加集成查询引擎教程 (#7247)
小型功能#
- 允许为Fastchat/本地OpenAI API端点使用空键(#7224)
[0.8.0] - 2023-08-11#
新功能#
- 新增"LLAMA_INDEX_CACHE_DIR"参数用于控制缓存文件 (#7233)
- 尽可能默认使用pydantic选择器 (#7154, #7223)
- 在服务上下文中移除对
embed_model使用langchain封装器的需求 (#7157) - 元数据提取器现在除了接受
LLMPredictor外,还接受LLM对象 (#7202) - 新增本地模式 + 回退至llama.cpp + llama2 (#7200)
- 为嵌入添加了本地回退至
BAAI/bge-small-en(#7200) - 新增了
SentenceWindowNodeParser+MetadataReplacementPostProcessor(#7211)
重大变更#
- 将默认LLM从text-davinci-003更改为gpt-3.5-turbo (#7223)
- 修改compact/refine/tree_summarize的提示词,使其在gpt-3.5-turbo上表现更佳 (#7150, #7179, #7223)
- 将默认LLM温度参数提高至0.1 (#7180)
[0.7.24.post1] - 2023-08-11#
其他变更#
- 撤销了 #7223 对默认设置的更改 (#7235)
[0.7.24] - 2023-08-10#
新功能#
- 尽可能默认使用pydantic选择器 (#7154, #7223)
- 移除服务上下文中
embed_model对langchain封装器的依赖 (#7157) - 元数据提取器现在除了接受
LLMPredictor外,还接受LLM对象 (#7202) - 新增本地模式 + 回退至llama.cpp + llama2 (#7200)
- 为嵌入模型添加了本地回退选项,使用
BAAI/bge-small-en(#7200) - 新增了
SentenceWindowNodeParser+MetadataReplacementPostProcessor(#7211)
重大变更#
- 将默认LLM从text-davinci-003更改为gpt-3.5-turbo (#7223)
- 优化针对gpt-3.5-turbo的compact/refine/tree_summarize提示词 (#7150, #7179, #7223)
- 将默认LLM温度提高到0.1 (#7180)
其他变更#
- 文档:改进Mendable搜索功能 (#7220)
- 重构OpenAI智能体 (#7077)
错误修复 / 细节优化#
- 在pgvector/postgres向量数据库中使用
1 - cosine_distance(#7217) - 修复元数据格式化和提取问题 (#7216)
- 修复(readers): 修复非ASCII JSON阅读器错误 (#7086)
- 杂项:为了更清晰,将PgVectorStore变量名从
sim改为distance(#7226)
[0.7.23] - 2023-08-10#
错误修复 / 细节优化#
- 修复了自定义模板和继承中的元数据格式化问题 (#7216)
[0.7.23] - 2023-08-10#
新功能#
- 在文档中添加"一键可观测性"页面 (#7183)
- 为本地部署添加了Xorbits推理支持 (#7151)
- 新增了Zep向量存储集成 (#7203)
- feat/zep 向量存储 (#7203)
错误修复 / 细节优化#
- 更新默认的
EntityExtractor模型 (#7209) - 使
ChatMemoryBuffer可序列化 (#7205) - 重构了
BaseOpenAIAgent(#7077)
[0.7.22] - 2023-08-08#
新功能#
- 添加集成检索器笔记本 (#7190)
- 文档:新增本地llama2笔记本 (#7146)
错误修复 / 细节优化#
- 修复了
AttributeError: 'OpenAIAgent' object has no attribute 'callback_manager'的问题,方法是在BaseOpenAIAgent中调用父类构造函数 - 从nebula查询中移除反引号 (#7192)
[0.7.21] - 2023-08-07#
新功能#
- 新增了一个用于元数据提取的
EntityExtractor(#7163)
[0.7.20] - 2023-08-06#
新功能#
- 添加路由模块文档 (#7171)
- 添加检索器路由 (#7166)
新功能#
- 新增了一个
RouterRetriever,用于将查询路由到特定的检索器 (#7166)
错误修复 / 细节优化#
- 修复了当
OpenAIAgent同时产生多个流式响应时,会导致各响应流之间的令牌交错的问题。(#7164) - 修复llms回调问题(args[0]错误)(#7165)
[0.7.19] - 2023-08-04#
新功能#
- 为weaviate添加了元数据过滤功能 (#7130)
- 为智能体和流式处理添加了令牌计数(及所有回调)功能 (#7122)
[0.7.18] - 2023-08-03#
新功能#
- 为内存对象添加了
to/from_string和to/from_dict方法 (#7128) - 在SQL查询的表信息中包含数据库表的列注释 (#7124)
- 添加Neo4j支持 (#7122)
错误修复 / 细节优化#
- 为
AzureOpenAI类添加了Azure AD验证支持 (#7127) - 在打印智能体/聊天引擎响应流时添加
flush=True(#7129) - 为
AzureOpenAI类添加了Azure AD支持 (#7127) - 更新LLM问题生成器提示,提及JSON markdown (#7105)
- 修复了聊天引擎中的
astream_chat功能 (#7139)
[0.7.17] - 2023-08-02#
新功能#
- 更新
ReActAgent以支持内存模块(这是一个较小的破坏性变更,因为构造函数现在接收memory参数而非chat_history,但主要的from_tools方法仍保持向后兼容性。)(#7116) - 更新
ReActAgent以支持流式处理 (#7119) - 新增了Neo4j图存储与查询引擎集成 (#7122)
- 添加对象流式传输 (#7117)
[0.7.16] - 2023-07-30#
新功能#
- 聊天源节点 (#7078)
[0.7.15] - 2023-07-29#
错误修复 / 细节优化#
- Anthropic API密钥自定义 (#7082)
- 修复贡献者文档中API参考的失效链接 (#7080)
- 更新向量存储文档 (#7076)
- 更新评论 (#7073)
[0.7.14] - 2023-07-28#
新功能#
- 新增HotpotQADistractor基准评估器 (#7034)
- 为LanceDB添加元数据过滤和删除支持 (#7048)
- 在opensearch中使用MetadataFilters (#7005)
- 新增支持
KuzuGraphStore(#6970) - 新增
kg_triplet_extract_fn用于自定义知识图谱构建方式 (#7068)
错误修复 / 细节优化#
- 修复上下文聊天引擎中的字符串格式化问题 (#7050)
- 修复了异步事件的追踪问题 (#7052)
- 为知识图谱(KGs)放宽三元组提取限制 (#7059)
- 为检索到的KG数据添加可配置限制 (#7059)
- Nebula连接改进 (#7059)
- 修复了为智能体响应构建源节点的错误 (#7067)
[0.7.13] - 2023-07-26#
新功能#
- 支持AzureOpenAI的函数调用API (#7041)
错误修复 / 细节优化#
- 调整提示以避免SubQ引擎中的KeyError错误 (#7039)
- 修复Azure OpenAI密钥的验证问题 (#7042)
[0.7.12] - 2023-07-25#
新功能#
- 为底层查询引擎的
ComposableGraph添加了kwargs参数 (#6990) - 初始化时验证OpenAI密钥 (#6940)
- 新增异步嵌入和异步检索查询引擎 (#6587)
- 为PGVectorStore添加了异步
aquery和async_add方法 (#7031) - 为聊天引擎和智能体响应添加了
.source_nodes属性 (#7029) - 新增了
OpenInferenceCallback用于以OpenInference格式存储生成数据(#6998)
错误修复 / 细节优化#
- 修复数据智能体的聊天内存初始化问题 (#7000)
- 向智能体/聊天引擎响应类添加
print_response_stream()(#7018)
错误修复 / 细节优化#
- 修复数据智能体的聊天内存初始化问题 (#7000)
- 在智能体/聊天引擎响应类中添加
print_response_stream()(#7018)
[v0.7.11.post1] - 2023-07-20#
新功能#
- 在可能的情况下,子问题查询引擎默认使用pydantic生成问题 (#6979)
错误修复 / 细节优化#
- 修复大型聊天记忆中的消息返回顺序问题 (#6979)
[v0.7.11] - 2023-07-19#
新功能#
- 新增了一个
SentenceTransformerRerank节点后处理器,用于快速本地重新排序 (#6934) - 为pandas查询引擎添加numpy支持以评估查询 (#6935)
- 为Postgres Vector Storage集成添加元数据过滤支持 (#6968)
- 为智能体和查询引擎提供完善的llama2支持 (#6969)
错误修复 / 细节优化#
- 为LLMMetadata添加了
model_name参数 (#6911) - 在查询引擎中回退到检索器服务上下文 (#6911)
- 修复了
as_chat_engine()因额外kwargs参数导致的ValueError错误 (#6971)
[v0.7.10.post1] - 2023-07-18#
新功能#
- 新增对Replicate LLM的支持(vicuna和llama 2!)
错误修复 / 细节优化#
- 修复了condense聊天引擎的流式传输问题 (#6958)
[v0.7.10] - 2023-07-17#
新功能#
- 添加对chroma v0.4.0的支持 (#6937)
- 将嵌入向量记录到回调管理器 (#6962)
错误修复 / 细节优化#
- 增加更健壮的嵌入超时处理 (#6779)
- 改进了Postgres向量存储的连接会话管理 (#6843)
[v0.7.9] - 2023-07-15#
新功能#
- 指定
embed_model="local"以在服务上下文中使用默认的本地嵌入 (#6806) - 为
BasePydanticProgram添加异步acall端点(默认为同步版本)。为OpenAIPydanticProgram实现该功能
错误修复 / 细节优化#
- 修复搜索现有向量数据库时的空元数据问题 (#6912)
- 为
SimpleDirectoryReader添加模块指南文档 (#6916) - 确保
CondenseQuestionChatEngine流式聊天端点正常工作,即使未在底层查询引擎中显式设置streaming=True。
[v0.7.8] - 2023-07-13#
新功能#
- 新增了嵌入速度基准测试 (#6876)
- 新增了BEIR检索基准测试 (#6825)
错误修复 / 细节优化#
- 从deprecated_terms中移除toctrees (#6895)
- 放宽类型依赖 (#6879)
- 文档:对评估笔记本的修改 (#6840)
- 如果模型不支持函数则抛出错误 (#6896)
- 修复(基准嵌入): 未考虑字符串长度的错误 (#6899)x
[v0.7.7] - 2023-07-13#
新功能#
- 改进Milvus一致性支持及输出字段支持 (#6452)
- 新增支持通过cypher+nebula进行知识图谱查询 (#6642)
- 新增
Document.example()方法用于快速原型设计的文档创建 (#6739) - 将react聊天引擎替换为使用原生响应式智能体 (#6870)
错误修复 / 细节优化#
- chore: 在makefile中添加了帮助信息 (#6861)
错误修复 / 细节优化#
- 修复了对使用SQLTableSchema context_str属性的支持 (#6891)
[v0.7.6] - 2023-07-12#
新功能#
- 在智能体/聊天引擎响应中添加了来源 (#6854)
- 为智能体/聊天引擎添加了基础聊天缓冲记忆功能 (#6857)
- 添加加载和搜索工具 (#6871)
- 添加简单的智能体基准测试 (#6869)
- 添加智能体文档 (#6866)
- 添加react智能体 (#6865)
重大变更/废弃的API更改#
- 将react聊天引擎替换为原生react智能体 (#6870)
- 将默认聊天模式设置为"best":尽可能使用openai智能体,否则使用react智能体 (#6870)
错误修复 / 细节优化#
- 修复了对旧版向量存储元数据的支持 (#6867)
- 修复文档中的chroma笔记本 (#6872)
- 更新LC嵌入文档 (#6868)
[v0.7.5] - 2023-07-11#
新功能#
- 添加
AnthropicLLM 实现 (#6855)
错误修复 / 细节优化#
- 修复
SentenceEmbeddingOptimizer中的索引错误 (#6850) - 修复自定义嵌入模型的文档 (#6851)
- 修复(静默错误): 为
SimpleDirectoryReader添加验证 (#6819) - 修复文档中的链接 (#6833)
- 修复了Azure gpt-35-turbo模型未被识别的问题 (#6828)
- 更新 Chatbot_SEC.ipynb (#6808)
- 将剩余的原始名称重命名为LlamaIndex (#6792)
- 修复同一类型的嵌套跟踪 (#6791)
[v0.7.4] - 2023-07-08#
新功能#
MetadataExtractor- 通过基于LLM的特征提取器增强文档元数据 (#6764)
错误修复 / 细节优化#
- 修复了将查询包传递给节点后处理器的问题 (#6780)
- 修复了回调管理器中嵌套跟踪的错误 (#6791)
[v0.7.3] - 2023-07-07#
新功能#
- 子问题查询引擎在回调管理器中返回子问题的源节点 (#6745)
- trulens集成 (#6741)
- 向子问题引擎添加来源 (#6745)
错误修复 / 细节优化#
- 为简单和紧凑聊天引擎添加/修复了流式支持 (#6717)
- 修复了
response_mode="no_text"响应合成器 (#6755) - 修复了在服务上下文中设置
num_output和context_window时的错误 (#6766) - 修复教程中缺失的as_query_engine()方法 (#6747)
- 修复了笔记本中的变量sql_query_engine (#6778)
- 修复必需函数字段 (#6761)
- 移除Prompt和SQL生成中对停止令牌的使用 (#6782)
[v0.7.2] - 2023-07-06#
新功能#
- 支持 Azure OpenAI (#6718)
- 在聊天引擎和OpenAI智能体中支持前缀消息(例如系统提示)(#6723)
- 新增了
CBEventType.SUB_QUESTIONS事件类型,用于追踪子问题查询/响应 (#6716)
错误修复 / 细节优化#
- 修复HF LLM输出错误 (#6737)
- 为langchain消息模板添加系统消息支持 (#6743)
- 修复了应用节点后处理器的问题 (#6749)
- 在
llama_index.llms下添加缺失的CustomLLM导入 (#6752) - 修复(拼写错误):
get_transformer_tokenizer_fn(#6729) - 功能(格式化):
black[jupyter](#6732) - 修复(测试):
test_optimizer_chinese(#6730)
[v0.7.1] - 2023-07-05#
新功能#
- 为OpenAI智能体添加流式支持 (#6694)
- 添加递归检索器 + 笔记本示例 (#6682)
[v0.7.0] - 2023-07-04#
新功能#
- 索引创建进度条 (#6583)
错误修复/细节优化#
- 改进了聊天优化模板 (#6645)
重大变更/废弃的API更改#
- 将
BaseOpenAIAgent改为使用llama_index.llms.OpenAI。调整chat_history的类型为List[ChatMessage]]。 - 移除(之前已弃用的)
llama_index.langchain_helpers.chain_wrapper模块。 - 移除(之前已弃用的)
llama_index.token_counter.token_counter模块。有关基于回调的新令牌计数方式的更多详情,请参阅迁移指南。 - 移除
ChatGPTLLMPredictor和HuggingFaceLLMPredictor。有关替代方案的更多详情,请参阅迁移指南。 - 移除通过
LLMPredictor构造函数设置cache的支持。 - 更新
BaseChatEngine接口: - 调整
chat_history使用List[ChatMessage]]作为类型 - 将
chat_history状态作为属性公开 - 支持在
chat和achat端点中覆盖chat_history - 移除
PromptHelper中已弃用的参数:max_input_size,embedding_limit,max_chunk_overlap - 更新所有笔记本以使用原生OpenAI集成 (#6696)
[v0.6.38] - 2023-07-02#
新功能#
- 在索引创建过程中添加可选的tqdm进度条 (#6583)
- 为"compact"和"refine"响应模式添加了异步支持 (#6590)
- [功能]为优化器添加transformer分词功能(中文) (#6659)
- 为向量存储添加简单基准测试 (#6670)
- 引入
llama_index.llms模块,包含新的LLM接口,以及OpenAI、HuggingFaceLLM、LangChainLLM实现。(#6615) - 蒸发pydantic程序 (#6666)
错误修复 / 细节优化#
- 改进RedisVectorStore的元数据/节点存储和检索功能 (#6678)
- 修复向量存储中的固定节点与文档过滤问题 (#6677)
- 将上下文检索智能体笔记本链接添加到文档 (#6660)
- 允许ImageNode类中的'image'属性为空值并修复相关...(问题编号#6661)
- 修复文档中的失效链接 (#6669)
- 更新milvus以存储节点内容 (#6667)
[v0.6.37] - 2023-06-30#
新功能#
- 添加上下文增强的OpenAI智能体 (#6655)
[v0.6.36] - 2023-06-29#
新功能#
- Redis 支持索引存储和文档存储 (#6575)
- DuckDB + SQL查询引擎笔记本 (#6628)
- 添加展示deplot数据加载器的笔记本 (#6638)
错误修复 / 细节优化#
- 针对
SelectionOutputParser的LLM JSON解析更加健壮 (#6610) - 将我们的加载器与llama-hub重新对齐 (#6630)
- 在笔记本中移除SQLStructStoreIndex的使用 (#6585)
- MD reader: remove html tags and leave linebreaks alone (#6618)
- 将最小langchain版本升级至最新版本 (#6632)
- 修复Postgres向量存储中的元数据列名 (#6622)
- Postgres 元数据修复 (#6626, #6634)
- 修复了contribution.md中指向数据加载器的链接 (#6636)
- 修复:在创建自定义LLM HuggingFace示例的文档中的拼写错误 (#6639)
- 更新了SelectionOutputParser以处理JSON对象和数组 (#6610)
- 修复了文档字符串参数拼写错误 (#6652)
[v0.6.35] - 2023-06-28#
- 重构结构化输出 + pydantic程序 (#6604)
错误修复 / 细节优化#
- 修复OpenSearch向量存储的序列化问题 (#6612)
- 修复文档关系 (#6606)
- 修复了在解析git仓库时忽略目录的问题 (#4196)
- 更新了Chroma笔记本 (#6572)
- 回退旧节点名称 (#6614)
- 新增更改chroma实现的功能 (#6601)
[v0.6.34] - 2023-06-26#
补丁更新 (v0.6.34.post1)#
- 为Document对象打补丁导入以保持向后兼容性 (#6597)
新功能#
- 基于pydantic的新
TextNode/Document对象类 (#6586) TextNode/Document对象支持元数据自定义(元数据模板、从LLM或嵌入中排除元数据)(#6586)- 节点不再需要扁平化的元数据字典,除非您使用的向量存储要求这样做 (#6586)
错误修复 / 细节优化#
- 使用
NLTK_DATA环境变量控制 NLTK 下载位置 (#6579) - [discord] 在group_conversations.py中将作者保存为元数据 (#6592)
- bs4 -> 在requirements中将beautifulsoup4替换为bs4 (#6582)
- 取反欧几里得距离 (#6564)
- 将df输出解析器笔记本链接添加到文档 (#6581)
重大变更/废弃的API更改#
Node已更名为TextNode,并从llama_index.schema导入 (#6586)TextNode和Document必须使用关键字参数实例化:Document(text=text)(#6586)TextNode(曾用名Node) 具有id_或node_id属性,而非doc_id(#6586)TextNode和Document拥有一个 metadata 属性,该属性取代了原来的 extra_info 属性 (#6586)TextNode不再具有node_info属性(起始/结束索引现在直接通过start/end_char_idx属性访问)(#6586)
[v0.6.33] - 2023-06-25#
新功能#
- 新增typesense向量存储 (#6561)
- 添加df输出解析器 (#6576)
错误修复 / 细节优化#
- 通过桥接模块跟踪langchain依赖项。(#6573)
[v0.6.32] - 2023-06-23#
新功能#
- 添加对象索引 (#6548)
- 添加SQL模式节点映射 + SQLTableRetrieverQueryEngine + 对象索引修复 (#6569)
- SQL重构 (NLSQLTableQueryEngine) (#6529)
错误修复 / 细节优化#
- 更新 vector_stores.md 文档 (#6562)
- 对
BaseResponseBuilder接口进行了小幅清理 (#6557) - 重构TreeSummarize (#6550)
[v0.6.31] - 2023-06-22#
错误修复 / 细节优化#
- 正确将weaviate距离转换为分数 (#6545)
- 重构树状总结功能并修复不截断上下文的错误 (#6550)
- 修复自定义知识图谱检索笔记本中的小问题 (#6551)
[v0.6.30] - 2023-06-21#
新功能#
- 路由器查询引擎中的多选择器支持 (#6518)
- 在路由器查询引擎中支持使用OpenAI函数调用API的pydantic选择器 (#6518)
- 在
CondenseQuestionChatEngine和SimpleChatEngine中支持流式响应 (#6524) - 在
QdrantVectorStore中支持元数据过滤 (#6476) - 添加
PGVectorStore以支持使用 pgvector 的 postgres (#6190)
错误修复 / 细节优化#
- mbox阅读器中更好的错误处理 (#6248)
- 修复使用weaviate时相似度分数为空的问题 (#6512)
- 修复了
PrevNextNodePostprocessor中对排序节点的处理 (#6048)
重大变更/废弃的API更改#
- 重构PandasQueryEngine以直接接收数据框df,弃用PandasIndex (#6527)
[v0.6.29] - 2023-06-20#
新功能#
- 基于OpenAI Function API的查询规划工具 (#6520)
- docs: 知识图谱+向量索引示例 (#6497)
- 为Cohere和AI21(J2模型)设置上下文窗口大小 (#6485)
错误修复 / 细节优化#
- 为Cohere和AI21添加默认输入大小 (#6485)
- 文档:在字典对象中用冒号替换逗号 (#6439)
- 提示信息和错误消息更新中的额外空格问题 (#6443)
- [问题 6417] 修复 prompt_templates 文档页面 (#6499)
- 移除临时补丁并更新模型到上下文窗口映射 (#6490)
[v0.6.28] - 2023-06-19#
新功能#
- 新版OpenAI智能体 + 查询引擎使用指南 (#6496)
- 允许递归数据提取(pydantic程序)(#6503)
错误修复 / 细节优化#
- 更新Mongo接口 (#6501)
- 修复了我们忘记为openai pydantic程序包含的内容 (#6503) (#6504)
- 修复Airbyte笔记本中的GitHub图片问题 (#6493)
[v0.6.27] - 2023-06-16#
新功能#
- 为weaviate添加节点文档ID过滤功能 (#6467)
- 新增
TokenCountingCallback功能,用于自定义和追踪嵌入、提示及完成令牌的使用情况 (#6440) - OpenAI检索功能智能体 (#6491)
重大变更/废弃的API更改#
- 弃用当前令牌追踪功能(llm预测器和嵌入模型未来将不再追踪令牌,请改用
TokenCountingCallback(#6440) - 为Simple Vector Store添加最大边际相关性功能,可作为查询模式启用 (#6446)
错误修复 / 细节优化#
as_chat_engine正确继承了当前的服务上下文 (#6470)- 从Pinecone删除时使用命名空间 (#6475)
- 修复在Windows上使用fsspec时的路径问题 (#3778)
- 修复了在
SimpleDirectoryReader中使用自定义文件读取器的问题 (#6477) - 编辑MMR笔记本 (#6486)
- FLARE 修复 (#6484)
[v0.6.26] - 2023-06-14#
新功能#
- 新增OpenAIAgent智能体及"构建自定义智能体"教程笔记本 (#6461)
- 添加OpenAIPydanticProgram (#6462)
错误修复 / 细节优化#
- 修复引用引擎导入问题 (#6456)
[v0.6.25] - 2023-06-13#
新功能#
- 新增了FLARE查询引擎 (#6419)。
[v0.6.24] - 2023-06-12#
新功能#
- 为Pinecone和Weaviate向量存储添加了对现有数据的更好支持(例如允许可配置的文本键)。(#6393)
- 支持Pineone的批量upsert操作 (#6393)
- 新增了初步的guidance集成。添加了
GuidancePydanticProgram用于通用结构化输出生成,以及GuidanceQuestionGenerator用于在SubQuestionQueryEngine中生成子问题(#6246)。
[v0.6.23] - 2023-06-11#
错误修复 / 细节优化#
- 移除引用查询引擎中的硬编码分块大小 (#6408)
- Mongo演示改进 (#6406)
- 修复笔记本 (#6418)
- 清理重试查询笔记本 (#6381)
[v0.6.22] - 2023-06-10#
新功能#
- 新增了
SQLJoinQueryEngine(SQLAutoVectorQueryEngine的通用版本)(#6265) - 底层新增了对图存储的支持,并初步支持Nebula KG知识图谱。更多文档即将发布!(#2581)
- 新增了指南评估器,允许llm根据用户指南提供反馈 (#4664)
- 新增支持MongoDB向量存储,以实现Atlas knnbeta搜索功能 (#6379)
- 新增了CitationQueryEngine,用于在响应文本中内联引用来源 (#6239)
错误修复#
- 修复了
delete_ref_doc未从文档存储中移除所有元数据的错误 (#6192) - 修复了加载现有 QDrantVectorStore 的bug (#6230)
其他#
- 正式将变更日志添加到github仓库 (#6191)
[v0.6.21] - 2023-06-06#
新功能#
- SimpleDirectoryReader新增了
filename_as_id标志,可自动设置doc_id(对refresh_ref_docs()非常有用) - DocArray向量存储集成
- Tair向量存储集成
- 用于追踪和版本化索引的Weights and Biases回调处理器
- 可以直接从向量存储初始化索引:
index = VectorStoreIndex.from_vector_store(vector_store=vector_store)
错误修复#
- 修复了多模态笔记本的问题
- 更新/修复了文档中的SQL教程
其他#
- 文档小幅更新
- 新增了GitHub拉取请求模板
- 新增了GitHub问题表单
[v0.6.20] - 2023-06-04#
新功能#
- 新增了JSONQueryEngine,它利用JSON模式提供更精确的JSON查询答案
- Redis向量存储的元数据支持
- 新增了Supabase向量存储集成
错误修复#
- 修正了文本转SQL提示中的拼写错误
重大变更/废弃的API更改#
- 移除了索引中的GPT前缀(但仍支持旧的导入/名称)
其他#
- 主要文档更新,将重要模块提升至顶层
[v0.6.19] - 2023-06-02#
新功能#
- 为llama-hub数据加载器添加了智能体工具抽象
其他#
- 文档小更新
[v0.6.18] - 2023-06-02#
其他#
- 在教程文档部分新增了
Discover LlamaIndex视频系列 - 小幅文档更新