跳至内容

更新日志#

[2025-06-02]#

llama-index-core [0.12.40]#

  • 功能:添加StopEvent步骤验证,确保只有一个工作流步骤能处理StopEvent (#18932)
  • 修复:在向LLM参数提供tool_required前添加兼容性检查 (#18922)

llama-index-embeddings-cohere [0.5.1]#

  • 修复:为Cohere API添加批量大小验证,限制为96 (#18915)

llama-index-llms-anthropic [0.7.2]#

  • 功能:支持向Anthropic Bedrock传递静态AWS凭证 (#18935)
  • 修复:处理Anthropic工具配置中未测试的无工具场景 (#18923)

llama-index-llms-google-genai [0.2.1]#

  • 修复:为google-genai函数调用使用正确的自动模式 (#18933)

llama-index-llms-openai [0.4.2]#

  • 修复: 清理OpenAI LLM API中的一些字段类型问题 (#18918)
  • 修复:将OpenAIResponses类中损坏的reasoning_effort参数迁移到reasoning_options字典中 (#18920)

llama-index-tools-measurespace [0.1.0]#

  • 功能:新增来自Measure Space的天气、气候、空气质量及地理编码工具 (#18909)

llama-index-tools-mcp [0.2.3]#

  • 功能:为BasicMCPClient添加headers处理功能 (#18919)

[2025-05-30]#

llama-index-core [0.12.39]#

  • 功能:在Workflows中添加Resource以实现依赖注入(文档即将发布!)(#18884)
  • 功能:为函数调用LLMs添加require_tool参数 (#18654)
  • 修复:使hitl事件的前缀和响应变为非必填项 (#18896)
  • 修复:当LLM未选择任何选项时SelectionOutputParser的问题 (#18886)

llama-index-indices-managed-llama-cloud [0.7.2]#

  • 功能:添加非持久化复合检索 (#18908)

llama-index-llms-bedrock-converse [0.7.0]#

  • 功能: 更新aioboto3依赖以支持最新版本 (#18889)

llama-index-llms-ollama [0.6.1]#

  • 支持ollama 0.5.0 SDK,更新ollama文档 (#18904)

llama-index-vector-stores-milvus [0.8.3]#

  • 功能:Milvus支持多语言分析器 (#18901)

[2025-05-28]#

llama-index-core [0.12.38]#

  • 功能:添加了一个非常简单的嵌入缓存实现 (#18864)
  • 功能:在NLSQLRetriever中添加cols_retrievers (#18843)
  • 功能:在NLSQLTableQueryEngine中添加行、列和表检索器作为参数 (#18874)
  • 功能:为FunctionAgent添加可配置的allow_parallel_tool_calls参数 (#18829)
  • 功能:允许在BaseToolSpec函数中使用ctx,以及其他ctx + 工具调用重构 (#18783)
  • 功能:优化get_biggest_prompt以提高可读性和效率 (#18808)
  • 修复:防止JSONReader中的拒绝服务攻击 (#18877)
  • 修复:当LLM未选择任何选项时SelectionOutputParser的问题 (#18886)
  • 修复:在hitl期间从ctx恢复AgentWorkflow (#18844)
  • 修复:AgentWorkflow运行期间的上下文序列化问题 (#18866)
  • 修复:如果内容块解析方法产生空字节则抛出错误 (#18819)
  • 修复:减少解析"思考/行动/行动输入"ReActAgent完成时的问题 (#18818)
  • 修复:从QueryFusionRetriever的llm响应中移除代码块反引号 (#18825)
  • 修复: 当schema中没有"title"键时,修复function_program.py中的get_function_tool (#18796)

llama-index-agent-azure-foundry [0.1.0]#

  • 功能:添加Azure Foundry智能体集成 (#18772)

llama-index-agent-llm-compiler [0.3.1]#

  • 功能: 支持llm-compiler的stream_step/astream_step (#18809)

llama-index-embeddings-google-genai [0.2.0]#

  • 功能:添加Gemini嵌入测试和重试配置 (#18846)

llama-index-embeddings-openai-like [0.1.1]#

  • 修复:将http_clientasync_http_client传递给父类以用于OpenAILikeEmbedding (#18881)

llama-index-embeddings-voyageai [0.3.6]#

  • 功能:引入voyage-3.5模型 (#18793)

llama-index-indices-managed-llama-cloud [0.7.1]#

  • 功能:为search_filters_inference_schema添加客户端支持 (#18867)
  • 功能:新增异步方法和空白索引创建 (#18859)

llama-index-llms-anthropic [0.6.19]#

  • 功能:更新以支持Anthropic LLM中的Claude 4 (#18817)
  • 修复: 在Anthropic中的思考+工具调用 (#18834)
  • 修复: 检查anthropic消息中的thinking是否为非空值 (#18838)
  • 修复: 更新/修复对claude-4的支持 (#18820)

llama-index-llms-bedrock-converse [0.6.0]#

  • 功能: 添加Claude4模型支持 (#18827)
  • 修复:修正Bedrock Converse中DocumentBlock的使用问题 (#18791)
  • 修复:使用空参数调用工具的问题 (#18786)

llama-index-llms-cleanlab [0.5.0]#

  • 功能:更新包名称和模型 (#18483)

llama-index-llms-featherlessai [0.1.0]#

  • 功能: 无羽LLM集成 (#18778)

llama-index-llms-google-genai [0.1.14]#

  • 修复:Google GenAI 的令牌计数行为,添加基础重试机制 (#18876)

llama-index-llms-ollama [0.5.6]#

  • 功能:尝试在ollama中自动设置上下文窗口 (#18822)
  • 功能:在ollama模型中使用默认温度参数 (#18815)

llama-index-llms-openai [0.3.44]#

  • 功能:新增OpenAI响应特性(图像生成、mcp调用、代码解释器)(#18810)
  • 修复:更新OpenAI响应类型导入以兼容最新openai库 (#18824)
  • 修复: 在OpenAI智能体中跳过工具描述长度检查 (#18790)

llama-index-llms-servam [0.1.1]#

  • 功能:添加Servam AI LLM集成,支持类似OpenAI的接口 (#18841)

llama-index-observability-otel [0.1.0]#

  • 功能:为可观测性集成OpenTelemetry (#18744)

llama-index-packs-raptor [0.3.2]#

  • 在Raptor聚类中使用全局llama_index分词器 (#18802)

llama-index-postprocessor-rankllm-rerank [0.5.0]#

  • 功能:使用最新版本的rank-llm SDK (#18831)

llama-index-readers-azstorage-blob [0.3.1]#

  • 修复: azstorageblobreader中的元数据和文件名问题 (#18816)

llama-index-readers-file [0.4.8]#

  • 修复:从远程文件系统读取pptx文件的问题 (#18862)

llama-index-storage-kvstore-postgres [0.3.1]#

  • 功能:从现有的SQLAlchemy引擎创建PostgresKVStore (#18798)

llama-index-tools-brightdata [0.1.0]#

  • 功能:集成brightdata (#18690)

llama-index-tools-google [0.3.1]#

  • 修复: GmailToolSpec.load_data() 调用搜索时缺少参数 (#18832)

llama-index-tools-mcp [0.2.2]#

  • 功能:增强SSE端点检测以提高更广泛的兼容性 (#18868)
  • 功能:全面改造BasicMCPClient以支持所有MCP特性 (#18833)
  • 修复:当allowed_tools列表为空时,McpToolSpec获取所有工具的问题 (#18879)
  • 修复:添加缺失的 BasicMCPClient.with_oauth() kwargs (#18845)

llama-index-tools-valyu [0.2.0]#

  • 功能: 升级至valyu 2.0.0 (#18861)

llama-index-vector-stores-azurecosmosmongo [0.6.0]#

  • 功能:为Azure Cosmos DB Mongo向量存储添加向量索引压缩支持 (#18850)

llama-index-vector-stores-opensearch [0.5.5]#

  • 功能:添加过滤器支持以检查元数据键是否不存在 (#18851)
  • 修复:不要在向量存储节点中同时传入 extra_infometadata (#18805)

[2025-05-19]#

llama-index-core [0.12.37]#

  • 确保Memory至少返回一条消息 (#18763)
  • 在访问message.content时用换行符分隔文本块 (#18763)
  • 在多智能体工作流中重置next_agent (#18782)
  • 在聊天存储中支持sqlalchemy v1 (#18780)
  • 修复: 损坏的hotpotqa数据集URL (#18764)
  • 在SimpleDirectoryReader中使用get_tqdm_iterable (#18722)
  • 将智能体工作流参数传入启动事件 (#18747)
  • 修复(chunking): 确保在AST节点分块过程中正确处理多字节字符 (#18702)

llama-index-llms-anthropic [0.6.14]#

  • 修复了OpenAI和Anthropic中的DocumentBlock处理问题 (#18769)

llama-index-llms-bedrock-converse [0.5.4]#

  • 修复Bedrock Converse的工具调用解析问题 (#18781)
  • 功能:为Bedrock添加缺失的客户端参数 (#18768)
  • 修复在Bedrock Converse中合并多个工具调用的问题 (#18761)

llama-index-llms-openai [0.3.42]#

  • 修复了OpenAI和Anthropic中的DocumentBlock处理问题 (#18769)
  • 移除openai中的工具长度检查 (#18784)
  • 添加对空工具调用增量的检查,提升版本 (#18745)

llama-index-llms-openai-like [0.3.5]#

  • 移除openai中的工具长度检查 (#18784)

llama-index-retrievers-vectorize [0.1.0]#

  • 添加向量化检索器 (#18685)

llama-index-tools-desearch [0.1.0]#

  • 功能/去搜索集成 (#18738)

[2025-05-14]#

llama-index-core [0.12.36]#

  • 在向量内存块中增加对自动session_id过滤的支持 (#18730)
  • 新增功能:支持在聊天消息中使用DocumentBlock (#18719)
  • 为BaseIndex添加了初始异步方法 (#18711)
  • 使用fs检查数据摄取管道路径 (#18680)
  • 在StreamingAgentChatResponse中添加边缘情况处理 (#18679)

llama-index-embeddings-azure-openai [0.3.5]#

  • 在Azure嵌入中查找azure openai密钥环境变量 (#18703)
  • 仅在未使用use_azure_ad时获取api_key (#18708)
  • 修复当不使用use_azure_ad时获取api_key的if分支拼写错误 (#18720)

llama-index-embeddings-cohere [0.5.0]#

  • 支持Cohere V4嵌入和V2客户端 (#18464)

llama-index-embeddings-fastembed [0.3.2]#

  • Bug修复: FastEmbedEmbedding 缺少将额外参数传递给 API 的代码 (#18695)

llama-index-graph-stores-neptune [0.3.3]#

  • 修复:处理获取Neptune节点属性时可能出现的OverflowError错误 (#18687)

llama-index-readers-legacy-office [0.1.1]#

  • 功能:legacy_office,基于Apache Tika的.doc阅读器 (#18649)
  • chore: 修复遗留办公文档阅读器臃肿的元数据问题 (#18696)

llama-index-retrievers-vectorize [0.1.0]#

  • 添加向量化检索器 (#18685)

llama-index-tools-brightdata [0.1.0]#

  • 功能/brightdata集成 (#18690)

llama-index-tools-mcp [0.1.3]#

  • 针对工作流服务器和函数工具的MCP单行命令 (#18729)

llama-index-tools-openapi [0.4.0]#

  • 功能改进 提升OpenAPI和Requests工具的能力与可靠性 (#18681)

llama-index-tools-requests [0.4.0]#

  • 功能改进:提升OpenAPI和Requests工具的能力与可靠性 (#18681)

llama-index-vector-stores-milvus [0.8.2]#

  • 修复(MilvusVectorStore): 使用Milvus的主键名称而非'id' (#18714)

llama-index-vector-stores-postgres [0.5.3]#

  • 为PGVectorStore添加IS_EMPTY支持 (#18667)

llama-index-vector-stores-redis [0.5.1]#

  • 添加异步Redis向量存储支持 (#18675)

[2025-05-08]#

llama-index-core [0.12.35]#

  • FunctionTool添加支持预填充部分工具参数的功能 (#18658)
  • 修复/优化智能体最大迭代次数跳过问题 (#18634)
  • 针对预构建工作流(如AgentWorkflow)中边缘情况序列化的处理 (#18628)
  • 使用新的基类重构内存功能 (#18594)
  • 添加预构建内存块 (#18607)

llama-index-embeddings-autoembeddings [0.1.0]#

  • 支持来自chonkie的AutoEmbeddings集成 (#18578)

llama-index-embeddings-huggingface-api [0.3.1]#

  • 修复huggingface-hub的依赖版本 (#18662)

llama-index-indices-managed-vectara [0.4.5]#

  • 修复了在Vectara中使用chain reranker时cutoff参数的问题 (#18610)

llama-index-llms-anthropic [0.6.12]#

  • Anthropic引用和工具调用 (#18657)

llama-index-llms-cortex [0.3.0]#

  • Cortex 认证增强功能 2 (#18588)

llama-index-llms-dashscope [0.3.3]#

  • 修复dashscope工具调用解析问题 (#18608)

llama-index-llms-google-genai [0.1.12]#

  • 修复google-genai llm中修改对象引用的问题 (#18616)
  • 功能(llama-index-llms-google-genai): 2.5-flash预览测试 (#18575)
  • 修复 last_msg 索引问题 (#18611)

llama-index-llms-huggingface-api [0.4.3]#

  • 针对Huggingface API的任务和依赖项修复 (#18662)

llama-index-llms-litellm [0.4.2]#

  • 修复解析流式工具调用的功能 (#18653)

llama-index-llms-meta [0.1.1]#

  • 支持将Meta Llama-api作为LLM提供商 (#18585)

llama-index-node-parser-docling [0.3.2]#

  • 修复/文档节点解析器元数据 (#186390)

llama-index-node-parser-slide [0.1.0]#

  • 新增SlideNodeParser集成 (#18620)

llama-index-readers-github [0.6.1]#

  • 修复:为GitHubIssuesClient添加follow_redirects=True参数 (#18630)

llama-index-readers-markitdown [0.1.1]#

  • 修复MarkItDown阅读器错误 (#18613)

llama-index-readers-oxylabs [0.1.2]#

  • 添加Oxylabs读取器 (#18555)

llama-index-readers-web [0.4.1]#

  • 修复了Firecrawl库的不当调用问题 (#18646)
  • 添加Oxylabs阅读器 (#18555)

llama-index-storage-chat-store-gel [0.1.0]#

  • 添加Gel集成 (#18503)

llama-index-storage-docstore-gel [0.1.0]#

  • 添加Gel集成 (#18503)

llama-index-storage-kvstore-gel [0.1.0]#

  • 添加Gel集成 (#18503)

llama-index-storage-index-store-gel [0.1.0]#

  • 添加Gel集成 (#18503)

llama-index-utils-workflow [0.3.2]#

  • 修复draw_all_possible_flows的事件颜色 (#18660)

llama-index-vector-stores-faiss [0.4.0]#

  • 添加Faiss Map向量存储并修复缺失的index_struct删除 (#18638)

llama-index-vector-stores-gel [0.1.0]#

  • 添加Gel集成 (#18503)

llama-index-vector-stores-postgres [0.5.2]#

  • 添加索引元数据字段 (#18595)

[2025-04-30]#

  • 将代码库从poetry迁移到uv (#18524)

llama-index-core [0.12.34]#

  • 修复: 当showprogress为False时,aextract_table_summaries导致不必要输出 (#18528)

llama-index-embeddings-cohere [0.4.1]#

  • 修复使用自定义端点的Cohere嵌入多进程问题 (#18551)

llama-index-embeddings-openvino-genai [0.5.0]#

  • 添加openvino genai嵌入功能 (#18569)

llama-index-llms-bedrock-converse [0.5.0]#

  • 添加对AWS Bedrock应用推理配置文件的支持 (#18549)

llama-index-llms-google-genai [0.1.10]#

  • 2.5-flash-preview 测试 + 结构化预测变更/修复 (#18575)
  • 在Google GenAI LLM中解锁pillow依赖项 (#18533)
  • 正确合并工具消息 (#18527)

llama-index-llms-huggingface-api [0.4.2]#

  • 为HuggingFaceInferenceAPI添加provider支持 (#18574)

llama-index-llms-vllm [0.5.1]#

  • 功能:添加is_chat_model选项 (#18552)

llama-index-packs-code-hierarchy [0.5.1]#

  • 代码层级智能体包处理空文件及不同编码文件的问题 (#18538)

llama-index-postprocessor-cohere-rerank [0.4.0]#

  • 在CohereRerank中将默认模型版本更新至v3.0 (#18579)

llama-index-readers-database [0.4.0]#

  • 增强DatabaseReader的功能并改进文档 (#18537)

llama-index-tools-mcp [0.1.2]#

  • 防止MCP连接挂起 (#18512)

llama-index-vector-stores-opensearch [0.5.3]#

  • 为AOSS添加OpensearchVectorClient以有条件检查索引是否存在 (#18560)

llama-index-vector-stores-postgres [0.5.1]#

  • 在PGVectorStore中实现aget_nodes和adelete (#18515)
  • 允许PGVectorStore传入引擎 (#18507)

[2025-04-23]#

llama-index-core [0.12.33 / 0.12.33.post1]#

  • 捆绑较新的tiktoken编码,提升最低tiktoken版本要求 (#18509)

llama-index-vector-stores-milvus [0.8.1]#

  • Milvus向量存储:更新元数据过滤演示 (#18502)

[2025-04-21]#

llama-index-core [0.12.32]#

  • 修复媒体资源序列化问题 (#18496)
  • 修复React智能体提示更新 (#18494)

llama-index-indices-managed-vectara [0.4.4]#

  • 在VectaraIndex上关闭GC中的"session" (#18484)

llama-index-llms-openai [0.3.38]#

  • 允许在OpenAI助手消息中使用内容块 (#18495)

llama-index-llms-openvino-genai [0.1.1]#

  • 修复openvino llm初始化问题 (#18481)

llama-index-vector-stores-milvus [0.8.0]#

  • MilvusVectorStore: 默认使用BM25作为稀疏嵌入函数 (#18460)

[2025-04-16]#

llama-index-core [0.12.31]#

  • 修复/内存多模态内容序列化问题 (#18447)
  • 为内存和后处理器基类添加异步支持 (#18438)

llama-index-callbacks-arize-pheonix [0.5.1]#

  • llama index 回调 arize phoenix Python 版本升级 (#18466)

llama-index-graph-stores-nebula [0.4.2]#

  • 修复nebula索引DDL (#18461)

llama-index-indices-managed-vectara [0.4.3]#

  • 为Vectara添加了llm_name参数 (#18472)

llama-index-llms-cohere [0.4.1]#

  • 扩展对Cohere模型的支持 (#18440)

llama-index-llms-llama-api [0.4.0]#

  • 通过封装OpenAI修复LlamaAPI集成问题 (#18437)

llama-index-llms-perplexity [0.3.3]#

  • 为新模型更新Perplexity实现 (#18442)

llama-index-llms-openai [0.3.37]#

  • 新增了对OpenAI 4.1支持的模型名称 (#18456)
  • 支持o3和o4-mini (#18473)
  • 在使用Azure异步方法时不要创建同步的openai客户端 (#18471)

llama-index-storage-chat-store-sqlite [0.1.0]#

  • 功能 添加SQLite聊天存储 (#18432)

llama-index-vector-stores-ApertureDB [0.0.1]#

  • 新增ApertureDB向量存储 (#18428)

llama-index-vector-stores-elasticsearch [0.4.3]#

  • 实现缺失的BasePydanticVectorStore方法 (#18454)

[2025-04-10]#

llama-index-core [0.12.30]#

  • 修复多智能体状态格式化问题 (#18417)
  • 默认使用to_thread处理异步读取方法 (#18418)

llama-index-callbacks-arize-pheonix [0.5.0]#

  • 为独立上下文连接新的Phoenix追踪选项 (#18415)

llama-index-graph-stores-nebula [0.4.1]#

  • 修复nebula属性获取问题 (#18423)

llama-index-llms-openai [0.3.33]#

  • 实际修复OpenAIResponses中的引用传递错误 (#18420)

[2024-04-08]#

llama-index-core [0.12.29]#

  • 在AgentWorkflow中更好地执行智能体交接 (#18399)
  • 等待事件重构以处理多个wait_for_event调用 (#18226)
  • 修复: 🐛 将已损坏且停用的 tree_sitter_languages 替换为 tree_sitter_language_pack (#18387)
  • 修复了SentenceSplitter在处理大量文本时消耗较高的pop(0)问题 (#18359)

llama-index-embeddings-huggingface [0.5.3]#

  • 在HuggingFaceEmbedding中添加切换进度条的选项 (#18404)

llama-index-embeddings-openai-like [0.1.0]#

  • 添加OpenAILikeEmbedding,更新文档 (#18364)

llama-index-llms-bedrock-converse [0.4.15]#

  • 功能:为Bedrock Converse添加多模态支持 (#18373)
  • 支持 bedrock converse deepseek r1 (#18371)

llama-index-llms-ibm [0.3.4]#

  • 缓存watsonx上下文窗口 (#18350)

llama-index-llms-openai [0.3.31]#

  • 修复OpenAI JSON解码错误 (#18352)
  • 启用OpenAI响应覆盖 (#18402)

llama-index-llms-vertex [0.4.6]#

  • 为Gemini模型添加ImageBlock和TextBlock支持 (#18344)

llama-index-graph-stores-kuzu [0.7.0]#

  • 升级至Kuzu 0.9.0版本 (#18382)

llama-index-indices-managed-llama-cloud [0.6.11]#

  • 移除 org id 关键字参数 (#18355)

llama-index-readers-microsoft-sharepoint [0.5.1]#

  • 修复Sharepoint文件夹路径编码问题 (#18357)

llama-index-readers-papers [0.3.2]#

  • 修复:使用defusexml替代xml.etree (#18362)

llama-index-readers-stripe-docs [0.3.1]#

  • 修复:使用defusexml替代xml.etree (#18362)

llama-index-readers-uniprot [0.1.0]#

  • 添加UniProt阅读器 (#18356)

llama-index-readers-web [0.3.9]#

  • 修复:使用defusexml替代xml.etree (#18362)

llama-index-retrievers-galaxia [0.1.0]#

  • 新增GalaxiaRetriever (#18317)

llama-index-vector-stores-azureaisearch [0.3.7]#

  • chore: 为语义配置添加标题和关键词 (#18354)

llama-index-vector-stores-lancedb [0.3.2]#

  • 修复LanceDB中的覆盖与追加逻辑 (#18405)

llama-index-utils-workflow [0.3.1]#

  • 修复自定义StopEvents的draw_all_possible_flows功能 (#18347)

[2025-04-01]#

llama-index-core [0.12.28]#

  • 添加代码执行智能体 + 文档 + 从零开始指南 (#18329)
  • 修复RichPromptTemplate的模板变量映射问题,并添加文档 (#18309)
  • AgentWorkflow / ReActAgent / FunctionAgent / CodeActAgent中支持多模态智能体 (#18330)
  • 修复在新节点类中包含节点元数据的哈希计算问题 (#18303)
  • 修复从Context.from_dict加载时的Context._events_queue问题 (#18304)
  • 文档:添加Langfuse监测功能 (#18321)

llama-index-embeddings-fastembed [0.3.1]#

  • 添加 providers 参数 (#18310)

llama-index-graph-stores-memgraph [0.3.1]#

  • 将Memgraph集成更新至最新语法 (#18319)

llama-index-indices-managed-llama-cloud [0.6.10]#

  • 修复构建客户端时的杂项问题 (#18323)

llama-index-llms-asi [0.1.0]#

  • 添加ASI LLM集成 (#18292)

llama-index-llms-dashscope [0.3.2]#

  • 更新DashScope集成,新增工具处理功能并升级依赖版本 (#18311)

llama-index-llms-ipex-llm [0.3.1]#

  • 修复IpexLLM构造函数错误 (#18200)

llama-index-llms-litellm [0.4.1]#

  • LiteLLM:增强了对工具流的支持,并支持多模态输入 (#18314)

llama-index-readers-obsidian [0.5.1]#

  • 修复:防止符号链接导致的路径遍历问题 (#18320)

llama-index-readers-papers [0.3.1]#

  • 修复:使文件名哈希更加健壮 (#18318)

llama-index-tools-mcp [0.1.1]#

  • 修复了当json_type为列表(包含多种可能类型)时的情况 (#18306)

llama-index-vector-stores-clickhouse [0.4.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-couchbase [0.3.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-deeplake [0.3.3]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-jaguar [0.3.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-lantern [0.3.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-nile [0.2.2]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-milvus [0.7.2]#

  • [bug修复] 当索引已存在时Milvus创建索引 (#18315)
  • 为milvus向量存储添加更多单元测试 (#18331)

llama-index-vector-stores-oracledb [0.2.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

llama-index-vector-stores-singlestoredb [0.3.1]#

  • 修复:修补多个SQL注入漏洞 (#18316)

[2025-03-28]#

llama-index-core [0.12.27]#

  • 通过延迟导入和加载nltk数据来优化初始导入 (#18289)
  • 支持在工作流步骤签名中使用延迟类型提示 (#18225)

llama-index-llms-litellm [0.3.1]#

  • 功能:为LiteLLM添加了工具调用支持 (#18235)

llama-index-llms-openai [0.3.29]#

  • 新增OpenAIResponses类以支持OpenAI的响应API (#18300)
  • 在重写方法中实现类型安全的结构化预测 (#18290)

llama-index-tools-dappier [0.1.0]#

  • 添加Dappier实时搜索和AI推荐工具 (#18211)

llama-index-vector-stores-milvus [0.7.1]#

  • Milvus向量存储:支持通过BM25进行全文搜索 (#18281)
  • 修复Milvus向量存储以处理文本字段检索

[2025-03-26]#

llama-index-core [0.12.26]#

  • 简化单智能体工作流中FunctionAgent/ReActAgent的使用 (#18227)
  • 引入RichPromptTemplate,支持类似jinja的模板功能 (#18178)
  • 为结构化llm重排序器添加实现 (#18216)

llama-index-embeddings-azure-openai [0.3.2]#

  • 修复AzureOpenAIEmbedding类中api_baseazure_deployment参数互斥的问题 (#18219)
  • 修复AzureOpenAIEmbedding类中的api_base参数 (#18191)

llama-index-finetuning [0.3.1]#

  • 更新SentenceTransformersFinetuneEngine以公开transformer检查点相关参数 (#18194)

llama-index-llms-dashscope [0.3.1]#

  • 为dashscope llm添加astream_chatastream_complete功能 (#18196)

llama-index-llms-bedrock [0.3.8]#

  • 弃用较旧的Google和Bedrock包 (#18210)
  • 新增对Bedrock应用推理配置文件的支持 (#18213)
  • 修复了基础模型ARN的提供程序解析问题 (#18283)

llama-index-llms-bedrock-converse [0.4.12]#

  • 在 bedrock converse 中不要将 None 附加到聊天历史记录 (#18206)
  • 新增apac bedrock llms (#18045)
  • 在工具对话聊天中将聊天消息作为用户消息处理 (#18187)

llama-index-llms-gemini [0.4.13]#

  • 确保 stream_complete 能够累积文本并设置增量 (#18246)

llama-index-llms-google-genai [0.1.6]#

  • 弃用较旧的Google和Bedrock包 (#18210)
  • 修复Google GenAI工具描述 (#18242)
  • 修复:在google-genai中支持anyof、optional和union (#18231)

llama-index-llms-openai [0.3.27]#

  • 添加o1-pro支持 (#18207)
  • 提升OpenAI LLM中的默认图像质量 (#18258)

llama-index-llms-text-generation-inference [0.3.2]#

  • 修复TextGenerationInference中的model_name验证错误,该参数不会从TGI端点请求并导致异常 (#18234)

llama-index-llms-vertx [0.4.4]#

  • 弃用较旧的Google和Bedrock包 (#18210)
  • Vertex LLM 不支持 FunctionCall 工具 (#18201)

llama-index-readers-file [0.4.7]#

  • 功能:通过为pandas excel读取器添加列标题来改进数据检索 (#18233)

llama-index-storage-chat-store-dynomodb [0.3.1]#

  • 功能:为DynamoDB聊天存储添加TTL支持 (#18084)

llama-index-storage-chat-store-redis [0.4.1]#

  • 修复Redis聊天存储中协程未被等待的运行时警告 (#18274)

llama-index-vector-stores-milvus [0.6.1]#

  • 修复Milvus过滤器中单引号的转义问题 (#18244)
  • 加速Milvus的async_add (#18243)

llama-index-vector-stores-qdrant [0.6.0]#

  • 更新qdrant以始终优先使用命名向量 (#18192)
  • 升级qdrant版本的python依赖项 (#18273)

[2025-03-18]#

llama-index-core [0.12.25]#

  • 确保在splitters中的CHUNKING_REGEX保留原始文本 (#18054)
  • 无需llama-index-readers-file包即可使用SimpleDirectoryReader (#18173)
  • 改进了 utils.py 和 exec_utils.py 中的注释和错误处理 (#18153)
  • 在SemanticDoubleMergingSplitterNodeParser中添加build_semantic_nodes_from_nodes功能 (#18114)
  • 修复:优化Context对象的内存管理 (#18170)
  • 修复:允许在工作流结束后从上下文流式传输事件 (#18174)
  • 功能:为Context类添加clear方法 (#18136)

llama-index-embeddins-clip [0.4.0]#

  • 取消固定 ClipEmbedding 依赖项 (#18165)

llama-index-embeddings-netmind [0.1.0]#

  • 添加netmind集成 (#18078)

llama-index-indices-managed-llama-cloud [0.6.9]#

  • 修复LlamaCloudCompositeRetriever的kwargs参数 (#18141)

llama-index-llms-bedrock-converse [0.4.10]#

  • Bug 修复:调用无参数的工具 (#18143)
  • 为BedrockConverse的chat和achat方法添加令牌计数功能 (#18148)

llama-index-llms-contextual [0.0.1]#

  • 修复上下文glm的问题 (#18145)

llama-index-llms-google-genai [0.1.4]#

  • 生成式AI图像输出 (#18138)

llama-index-llms-langchain [0.6.1]#

  • 在llama-index-llms-langchain中将已弃用的predict替换为invoke (#18169)

llama-index-llms-netmind [0.1.0]#

  • 添加netmind集成 (#18078)

llama-index-llms-novita [0.1.0]#

  • 添加NovitaAI llm类 (#18134)

llama-index-postprocessor-aimon-rerank [0.1.0]#

  • 将AIMon重新排序器集成到LlamaIndex节点后处理器中 (#18087)

llama-index-readers-mongodb [0.3.1]#

  • 功能(mongo阅读器): 字段提取器 (#18063)

llama-index-tools-vectara-query [0.3.1]#

  • 更新Vectara工具以适配VectaraIndex的元数据变更 (#18126)

llama-index-vector-stores-azurecosmosnosql [1.3.2]#

  • 修复:AzureCosmosNoSQL vector_store;基于ref_doc_id进行删除 (#18120)

llama-index-vector-stores-pinecone [0.4.5]#

  • 升级兼容的pinecone版本 (#18113)

[2025-03-13]#

llama-index-core [0.12.24]#

  • 修复获取内容节点元数据重复模板的问题 (#18110)
  • 移除了多模态向量存储/查询引擎中对多模态LLM的断言检查 (#18112)
  • 修复:使run_step返回步骤生成的所有事件 (#18082)
  • 修复(多模态节点): 在打开前检查图像路径是否为文件 (#18043)

llama-index-embeddings-google-genai [0.1.0]#

  • Google genai 嵌入 (#18079)

llama-index-graph-stores-neptune [0.3.2]#

  • 修复Neptune中upsert_triplet方法的TypeError (#18051)

llama-index-indices-managed-vectara [0.4.2]#

  • 更新Vectara索引以返回文档级和页面级元数据 (#17976)

llama-index-llms-contextual [0.1.0]#

  • 上下文生成模型 (#17913)

llama-index-llms-google-genai [0.1.3]#

  • 为谷歌使用GenAI包 (#17939)
  • 修复gemini角色 (#18108)
  • 修复空模型元引用 (#18109)
  • [BUG修复] Google genai vertexai 错误 (#18070)

llama-index-memory-mem0 [0.3.0]#

  • Mem0Memory集成问题:需要更新以适应Mem0 API参数变更 (#18066)

llama-index-postprocessor-contextual-rerank [0.1.0]#

  • 上下文重新排序器 (#18075)

llama-index-readers-elasticsearch [0.3.1]#

  • 修复ElasticsearchReader的冗余问题 (#18106)

llama-index-readers-google [0.6.1]#

  • 对重定向URI端口使用int类型 (#18097)

[2025-03-07]#

llama-index-core [0.12.23]#

  • 新增了merging_separator参数,用于在语义分割器中指定块合并分隔符 (#18027)
  • 在BaseWorkflowAgent类中添加支持运行单智能体工作流的功能 (#18038)
  • 修复了在创建ReactAgent时未提供明确系统消息时引发的错误 (#18041)
  • 为TokenTextSplitter添加keep_whitespaces字段 (#17998)
  • 不要在AgentWorkflow中将原始工具输出转换为字符串 (#18006)

llama-index-embeddings-ollama [0.6.0]#

  • 功能:为OllamaEmbedding类添加client_kwargs参数 (#18012)

llama-index-llms-anthropic [0.6.10]#

  • Anthropic缓存与思考更新 (#18039)
  • 允许缓存工具结果 (#18028)
  • 支持缓存Anthropic系统提示(#18008)
  • 确保恢复工作流实际可用 (#18023)
  • [MarkdownNodeParser] 添加可自定义的标题路径分隔符 (#17964)
  • 功能:当停止事件为自定义时,从run()返回事件实例 (#18001)

llama-index-llms-azure-openai [0.3.2]#

  • AzureOpenAI: api_base 和 azure_endpoint 是互斥参数 (#18037)
  • 为AzureOpenAI添加base_url (#17996)

llama-index-llms-bedrock-converse [0.4.8]#

  • boto3模型中需要提供消息文本 (#17989)

llama-index-llms-ollama [0.5.3]#

  • 将Ollama LLM中的request_timeout设为可选参数 (#18007)

llama-index-llms-mistralai [0.4.0]#

  • 支持MistralAI的多模态内容块 (#17997)

llama-index-readers-file [0.4.6]#

  • Bug修复:当安装了PyTorch时,在ImageVisionLLMReader的推理中使用torch.no grad() (#17970)

llama-index-storage-chat-store-mongo [0.1.0]#

  • 功能/Mongo聊天存储 (#17979)

llama-index-core [0.12.23]#

  • 新增了merging_separator参数,用于在语义分割器中指定块合并分隔符 (#18027)
  • 在BaseWorkflowAgent类中添加支持运行单智能体工作流的功能 (#18038)
  • 修复了在创建ReactAgent时未提供明确系统消息时引发的错误 (#18041)
  • 为TokenTextSplitter添加keep_whitespaces字段 (#17998)

[2025-02-28]#

llama-index-core [0.12.22]#

  • 修复智能体工作流工具在最终响应中的调用跟踪 (#17968)

llama-index-readers-github [0.6.0]#

  • 确保Github阅读器使用超时和重试参数 (#17959)

llama-index-readers-web [0.3.7]#

  • chore: 更新FireCrawlWebReader集成以支持extract (#17957)

[2025-02-27]#

llama-index-core [0.12.21]#

  • 修复:移除工作流测试中的警告 (#17943)
  • 修复:在逐步运行工作流步骤时考虑步骤工作线程 (#17942)
  • 功能:自动检测工作流类中的自定义开始和停止事件 (#17865)
  • 功能/移除检索器工具模板覆盖 (#17909)
  • 仅当实际检测到'Answer:'时才修改delta (#17901)
  • 修复CitationQueryEngine初始化函数中的response_synthesizer问题 (#17897)
  • 修复 ChatSummaryMemoryBuffer._summarize_oldest_chat_history (#17845)
  • 修复:全面增强base64检测的鲁棒性 (#17930)
  • 修复:当步骤执行异步工作时,逐步执行会中断 (#17914)
  • 更安全的工作流取消 + 修复恢复上下文错误 (#17938)

llama-index-cli [0.4.1]#

  • 修复:在执行shell命令前对用户输入进行转义处理 (#17953)
  • llamaindex-cli 正确处理全局模式 (#17904)

llama-index-embeddings-gaudi [0.2.1]#

  • 修复:移除cache_dir的Pydantic字段验证 (#17947)

llama-index-indices-managed-vectara [0.4.1]#

  • 支持自定义 vectara_base_url (#17934)

llama-index-llms-anthropic [0.6.7]#

  • 修复:调用Anthropic Messages API时tools参数不能为Null (#17928)

llama-index-llms-bedrock [0.3.4]#

  • feat(bedrock): 添加Claude 3.7 Sonnet模型支持 (#17950)

llama-index-llms-bedrock-converse [0.4.7]#

  • 功能(bedrock converse): 添加Meta Llama 3.3 70B指令模型支持 (#17915)

llama-index-llms-gemini [0.4.11]#

  • 功能:将Gemini允许的最大模型温度调整为2.0 (#17886)

llama-index-llms-ibm [0.3.3]#

  • 更新WatsonxLLM.metadata属性,以避免当model_limits字段不存在时出现验证错误 (#17839)

llama-index-llms-openai [0.3.24]#

  • 添加 gpt-4.5-preview (#17954)
  • 修复: 通过vLLM实现类似OpenAI的智能体流式传输 (#17927)
  • 修复当助手消息为空时出现的"Invalid value for 'content': expected a string, got null." OpenAI错误 (#17921)

llama-index-multi-modal-llms-azure-openai [0.4.0]#

  • 重构为在普通AzureOpenAI llm(也支持使用内容块的图像)之上的轻量级包装器,以避免代码重复 (#17951)

llama-index-multi-modal-llms-huggingface [0.4.2]#

  • 为LlamaMultiModal类支持纯文本提示 (#17855)

llama-index-multi-modal-llms-openai [0.5.0]#

  • 重构为在普通OpenAI llm之上的轻量级封装(也支持使用内容块处理图像),以避免代码重复 (#17951)

llama-index-postprocessor-ibm [0.1.0]#

  • 功能:新增IBM Watsonx AI重新排序集成 (#17900)

llama-index-readers-web [0.3.6]#

  • 修复:在KnowledgeBaseWebReader中遵守max_depth参数 (#17949)

llama-index-retrievers-tldw [0.0.1]#

  • tl;dw 检索器的AI集成 (#17872)

llama-index-tools-valyu [0.1.0]#

  • 功能:添加Valyu集成 (#17892)

llama-index-vector-stores-azureaisearch [0.3.6]#

  • azureaisearch: 在创建索引时添加默认的mySemanticConfig作为名称 (#17908)

llama-index-vector-stores-databricks [0.4.0]#

  • 构建:支持llama-index-vector-stores-databricks的python3版本为3.9且小于4.0 (#17937)

llama-index-vector-stores-duckdb [0.3.1]#

  • 修复:在DuckDB向量存储中转义SQL查询参数 (#17952)

llama-index-vector-stores-elasticsearch [0.4.2]#

  • 修复:修正adelete方法并添加delete_nodes到elasticsearch向量存储 (#17890)

[2025-02-25]#

llama-index-core [0.12.20]#

  • 功能:为检索到的图像节点附加更多元数据 (#17868)
  • 修复:当LLM响应不包含聊天消息时,FunctionAgent和ReActAgent会报错 (#17884)
  • 修复:将嵌入函数转换为异步 (#17888)

llama-index-networks [0.6.0]#

  • 修复:升级python-jose版本 (#17866)

llama-index-vector-stores-redis [0.5.0]#

  • 修复: 更新redisvl至0.4.0版本 (#17902)

llama-index-llms-anthropic [0.6.6]#

  • 修复:添加对Claude 3.7系列模型的支持 (#17905)

llama-index-readers-microsoft-outlook-emails [0.1.1]#

  • 修复:microsoft_outlook_emails集成的导入路径不正确 (#17867)

llama-index-llms-vertex [0.4.3]#

  • 修复:修复了带有工具调用的聊天消息错误映射到Vertex消息的问题 (#17893)

llama-index-llms-bedrock-converse [0.4.6]#

  • 功能:添加对Claude 3.7 Sonnet模型的支持 (#17911)

[2025-02-17]#

llama-index-core [0.12.19]#

  • 新增了同步/异步函数工具回调 (#16637)
  • 调整了模板变量的正则表达式

llama-index-experimental [0.5.4]#

  • 实验性自然语言检索器使用duck db (#15642)

llama-index-graph-stores-memgraph [0.3.0]#

  • 修复memgraph上的版本问题 (#17842)

llama-index-indices-managed-llama-cloud [0.6.7]#

  • 图像元数据测试 + 同步实现 (#17844)

llama-index-postprocessor-nvidia-rerank [0.4.2]#

  • NVIDIARerank 添加 http_client 参数以传递自定义客户端 (#17832)

llama-index-llms-mistralai [0.3.3]#

  • 支持mistral saba (#17847)

[2025-02-16]#

llama-index-core [0.12.18]#

  • 改进提示助手多模态支持 (#17831)
  • 保留@dispatcher.span的返回类型 (#17817)
  • 静默nltk下载器 (#17816)
  • astream_chat()中保持对asyncio任务的引用 (#17812)

llama-index-indices-managed-llama-cloud [0.6.6]#

  • 从llamacloud检索器返回图像节点时包含文件和页面元数据 (#17823)
  • 改进llamacloud索引的错误日志 (#17827)

llama-index-indices-managed-vertexai [0.2.1]#

  • 添加文本节点元数据 (#17814)

llama-index-llms-anthropic [0.6.5]#

  • 功能: ✨ 新增支持 anthropic claude-3-5-haiku-latest 模型名称 (#17818)

llama-index-llms-openai [0.3.20]#

  • 针对旧版o1模型的openai开发者消息修复 (#17833)

llama-index-readers-microsoft-outlook-emails [0.1.0]#

  • 功能:新增Microsoft Outlook电子邮件阅读器集成 (#17829)

llama-index-tools-mcp [0.1.0]#

  • 功能:添加mcp工具规范 (#17795)

llama-index-tools-playwright [0.1.1]#

  • 修复:将Playwright浏览器工具从同步改为异步 (#17808)

llama-index-vector-stores-azureaisearch [0.3.5]#

  • 扩展AzureAISearchVectorStore的筛选器选项 (#17811)
  • azureaisearch: 在混合搜索中优先使用 hybrid_top_k 而非 similarity_top_k (#17612)
  • azureaisearch: 为语义配置名称添加默认值None (#17807)

llama-index-vector-stores-mariadb [0.3.1]#

  • MariaDB向量存储集成:新增调优参数和实用函数 (#17791)

[2025-02-11]#

llama-index-core [0.12.17]#

  • 在聊天消息中新增了对AudioBlocks的支持(目前仅限OpenAI)(#17780)
  • 修复:SimpleDirectoryReader元数据时区处理不一致问题 (#17724)

llama-index-agent-openai [0.4.4]#

  • 在openai assistant智能体中新增了额外参数 (#17729)
  • 避免在aput_messages中出现异步竞争条件 (#17754)

llama-index-embeddings-siliconflow [0.2.1]#

  • 为siliconflow llm和嵌入添加重试逻辑 (#17771)

llama-index-graph-rag-cognee [0.1.3]#

  • Cognee集成版本更新 (#17769)

llama-index-graph-stores-neptune [0.3.1]#

  • 修复:更新Neptune集成中的upsert_triplet方法 (#17727)

llama-index-llms-gemini [0.4.9]#

  • 修复gemini工具选择问题 (#17747)
  • 修复 Gemini 多轮工具调用问题 (#17764)
  • chore: 为最新的gemini结构化生成添加测试 (#17762)

llama-index-llms-ibm [0.3.2]#

  • 修复:更新WatsonxLLM.stream_chat()以适应即将发布的ibm-watsonx-ai 1.2.7并避免错误。(#17772)

llama-index-llms-langchain [0.6.0]#

  • 将llama-index-llms-langchain更新至最新langchain API - 移除弃用警告(#17770)

llama-index-llms-ollama [0.5.2]#

  • Ollama 原生多模态支持与 ImageBlocks (#17759)

llama-index-llms-openai [0.3.19]#

  • 为openai添加音频支持 (#17780)

llama-index-llms-openvino-genai [0.1.0]#

  • 新增llama-index-llms-openvino-genai包 (#17714)

llama-index-llms-siliconflow [0.2.1]#

  • 为siliconflow llm和嵌入添加重试逻辑 (#17771)

llama-index-readers-whisper [0.1.0]#

  • 新增OpenAI Whisper阅读器 (#17778)

llama-index-retrievers-bm25 [0.5.2]#

  • BM25Retriever:改进Unicode错误处理与编码灵活性 (#17643)

llama-index-retrievers-kendra [0.1.0]#

  • 添加Kendra检索器 (#17760)

llama-index-tools-jira [0.1.0]#

  • Jira工具集成 (#17763)

llama-index-tools-playwright [0.1.0]#

  • 功能:新增playwright浏览器工具 (#17706)

llama-index-vector-stores-elasticsearch [0.4.1]#

  • 删除查询缺少关键字后缀 (#17750)

[2025-01-05]#

llama-index-core [0.12.16]#

  • 在执行ReAct时,对某些模型输出的前导空格更加宽容 (#17701)
  • 修复user_msgchat_history智能体工作流输入问题 (#17690)

llama-index-embeddings-oci-data-science [0.1.0]#

  • 新增OCI数据科学模型部署嵌入集成 (#17243)

llama-index-embeddings-vllm [0.1.0]#

  • 为嵌入功能添加vLLM离线推理支持 (#17675)

llama-index-embeddings-voyageai [0.3.5]#

  • 小型异步 voyageai 修复 (#17698)

llama-index-llms-gemini [0.4.7]#

  • 支持gemini 2.0 (#17720)
  • 功能:支持Gemini(google-generativeai)的基本函数调用 (#17696)

llama-index-llms-oci-data-science [0.1.0]#

  • 添加OCI数据科学模型部署LLM集成 (#17241)

llama-index-llms-oci-genai [0.3.1]#

  • 提供传递auth_file_location的选项,以便覆盖默认配置文件位置,即~/.oci/config (#17695)

llama-index-llms-ollama [0.5.1]#

  • 修复:避免在流式传输时遗漏工具调用

llama-index-llms-openai [0.3.17]#

  • 修复: O1中的max_tokens (#17703)
  • o3 mini 支持 (#17689)
  • 修复max_tokens,为OpenAI推理模型添加reasoning_effort参数 (#17694)

llama-index-readers-obsidian [0.5.0]#

  • 改进的 Obsidian 阅读器 (#17699)

llama-index-tools-scrapegraph [0.1.1]#

  • 功能:新增 scrapegraph 端点 (#17709)

[2025-01-31]#

llama-index-core [0.12.15]#

  • 为FunctionCallingLLM.predict_and_call添加error_on_tool_error参数 (#17663)
  • 从pydantic字段获取工具描述 (#17679)
  • 修复: 使ctx._events_buffer可JSON序列化 (#17676)
  • 功能:允许在简单目录读取器中排除空文件 (#17656)
  • 改进markdown LLM输出解析 (#17577)
  • 修复默认计划优化提示中的小拼写错误 (#17644)

llama-index-agent-openai [0.4.3]#

  • 修复并行工具调用时重复来源的问题 (#17645)

llama-index-embeddings-text-embeddings-inference [0.3.2]#

  • 为TextEmbeddingsInference添加endpoint参数 (#17598)

llama-index-llms-bedrock-converse [0.4.5]#

  • 修复 bedrock 函数调用 (#17658)

llama-index-llms-cortex [0.1.0]#

  • 新增Snowflake Cortex集成 (#17585)

llama-index-llms-fireworks [0.3.2]#

  • llamaindex 现已支持 Deepseek-r1 (#17657)
  • llamaindex 现已支持 fireworks 的 Deepseek-v3 模型 (#17518)

llama-index-llms-gemini [0.4.5]#

  • 为异步调用添加聊天装饰器 (#17678)

llama-index-llms-llama-cpp [0.4.0]#

  • 更新llama-cpp集成 + 文档 (#17647)

llama-index-vector-stores-azureaisearch [0.3.3]#

  • 功能/修复:由于硬编码参数导致的Azure AI搜索混合语义搜索不可用问题 (#17683)

llama-index-vector-stores-pinecone [0.4.4]#

  • get_nodes() 现在接受 include_values 参数以返回嵌入向量 (#17635)

[2025-01-25]#

llama-index-core [0.12.14]#

  • 修复非OpenAI LLMs的智能体工作流交接问题 (#17631)
  • 对多智能体工作流演示笔记本的小修复 (#17628)

llama-index-embeddings-bedrock [0.5.0]#

  • 实现异步 bedrock 嵌入 (#17610)

llama-index-llms-bedrock-converse [0.4.4]#

  • 修复 bedrock converse 中的提示堆叠问题 (#17613)

llama-index-llms-deepseek [0.1.0]#

  • DeepSeek官方API LLM (#17625)

llama-index-readers-google [0.6.0]#

  • GoogleDriveReader 支持文件扩展名 (#17620)

[2025-01-23]#

llama-index-core [0.12.13]#

  • 修复关于MarkdownNodeParser中markdown级别与堆栈深度的header_path错误 (#17602)
  • 高级文本转SQL示例行,为少样本提示添加行检索功能 (#17479)
  • 使ReAct观察的消息角色可配置 (#17521)
  • 修复在AgentWorkflow中重构工具的问题 (#17596)
  • 支持在聊天模板中使用内容块 (#17603)
  • 通过新增的DocumentContextExtractor支持上下文检索功能 (#17367)

llama-index-graph-stores-memgraph [0.2.1]#

  • 为Memgraph集成提供向量索引支持 (#17570)

llama-index-graph-stores-neo4j [0.4.6]#

  • 改进了neo4j对象的连接并添加了一些测试 (#17562)

llama-index-indices-managed-llama-cloud [0.6.4]#

  • 为复合检索添加框架集成 (#17536)

llama-index-llms-langchain [0.5.1]#

  • 在流式传输时获取有效字符串 (#17566)

llama-index-llms-mistralai [0.3.2]#

  • 更新mistral中的函数调用模型 (#17604)

llama-index-llms-openai [0.3.14]#

  • 修复 openai.BadRequestError: 'content'参数值无效:预期应为字符串,但在工具调用时获取到null值 (#17556)

llama-index-readers-file [0.4.3]#

  • 重构markdown_to_tups方法以更好地处理多级标题 (#17508)

llama-index-readers-web [0.3.5]#

  • 功能:新增Agentql网页加载器 (#17575)

llama-index-tools-linkup-research [0.3.0]#

  • 添加链接工具 (#17541)

llama-index-tools-notion [0.3.1]#

  • 修复:修正NotionPageReader中"load_data"的输入参数 (#17529)

llama-index-vector-stores-pinecone [0.4.3]#

  • 构建: 🆙 将 pinecone-client 替换为 pinecone 包 (#17587)

llama-index-vector-stores-postgres [0.4.2]#

  • 添加对halfvec向量类型的支持 (#17534)

[2025-01-20]#

llama-index-core [0.12.12]#

  • 功能:新增AgentWorkflow系统以支持单智能体及多智能体工作流 (#17237)
  • 修复ImageNode中的图片路径验证问题 (#17558)

llama-index-indices-managed-vectara [0.4.0]#

  • (重大变更) API迁移 (#17545)

llama-index-llms-anthropic [0.6.4]#

  • 功能:支持直接处理Anthropic的PDF文件 (#17506)

llama-index-llms-fireworks [0.3.1]#

  • llamaindex 现已支持 fireworks 的 Deepseek-v3 模型 (#17518)

llama-index-llms-stepfun [1.0.0]#

  • 功能:添加stepfun集成 (#17514)

llama-index-multi-modal-llms-gemini [0.5.0]#

  • 重构:将GeminiMultiModal改为围绕Gemini的轻量级封装 (#17501)

llama-index-postprocessor-longllmlingua [0.4.0]#

  • 添加longllmlingua2集成 (#17531)

llama-index-readers-web [0.3.4]#

  • 功能: Hyperbrowser 网页阅读器 (#17489)

[2025-01-15]#

llama-index-core [0.12.11]#

  • 修复:MediaResource验证器中的错误 (#17509)
  • 在MarkdownElementNodeParser中处理pandas将markdown转换为数据框时的错误 (#17511)
  • bug修复: 重复的引用节点 (#17440)
  • 通过更新MarkdownReader中的markdown格式修复了问题 #17397 (#17429)
  • 功能:支持通过additional_kwargs向ChatMessage添加图片 (#17477)
  • 功能:异步语义分割节点解析器 (#17449)
  • 在schema llm提取器中增加更多异常处理 (#17432)

llama-index-agent-openai [0.4.2]#

  • OpenAIAgentWorker的异步内存管理 (#17375)

llama-index-embeddings-huggingface [0.5.0]#

  • 支持多模态HuggingFace嵌入 (#17463)

llama-index-embeddings-gemini [0.3.1]#

  • 为gemini添加请求选项 (#17452)

llama-index-embeddings-opea [0.1.0]#

  • 在Llama-Index中添加对OPEA LLMs的支持 (#16666)

llama-index-embeddings-upstage [0.4.1]#

  • bug修复: 修正upstage嵌入可用模型映射 (#17460)

llama-index-graph-stores-neo4j [0.4.5]#

  • 修复neo4j模式错误 (#17448)

llama-index-llms-gemini [0.4.3]#

  • 为gemini添加请求选项 (#17452)

llama-index-llms-opea [0.1.0]#

  • 在Llama-Index中添加对OPEA LLMs的支持 (#16666)

llama-index-llms-openai [0.3.13]#

  • 调整OpenAI模型温度参数,使其可接受0到2之间的值 (#17453)

llama-index-multi-modal-llms-bedrock [0.1.0]#

  • 新增多模态Bedrock集成 (#17451)

llama-index-postprocessor-bedrock-rerank [0.3.1]#

  • 如果输入节点数量较少,请修改top_n (#17374)

llama-index-readers-slack [0.3.1]#

  • 新增支持仅允许公共Slack频道 (#17399)

llama-index-storage-chat-store-tablestore [0.1.0]#

  • 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-docstore-tablestore [0.1.0]#

  • 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-index-store-tablestore [0.1.0]#

  • 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-kvstore-tablestore [0.1.0]#

  • 支持表格存储 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-vector-stores-mariadb [0.3.0]#

  • 在MariaDB向量存储集成中支持MariaDB 11.7版本 (#17497)

llama-index-vector-stores-neptune [0.3.1]#

  • 添加测试,修复缺失的方法 (#17485)

llama-index-vector-stores-qdrant [0.4.3]#

  • 为Qdrant向量存储添加新操作符 (#17490)

[2024-12-31]#

llama-index-core [0.12.10]#

  • 从schema llm提取器中移除断言 (#17425)
  • 功能:支持使用typing.Annotated为FunctionTools添加参数描述 (#17411)
  • 为ImageNode猜测image_mimetype (#17422)

llama-index-embeddings-nvidia [0.3.1]#

  • NVIDIA 对 v2 嵌入和重排序 NIMs 的支持 #(17410)

llama-index-embeddings-openvino [0.5.1]#

  • 更新OpenVINO软件包的依赖项 (#17419)

llama-index-multi-modal-llms-openai [0.4.2]#

  • 为多模态LLM添加对gpt-4o-2024-08-06的支持 (#17405)

llama-index-packs-raptor [0.3.1]#

  • 修复了llama_index.packs.raptor中的tree_traversal检索问题 (#17406)

llama-index-postprocessor-openvino-rerank [0.4.1]#

  • 更新OpenVINO软件包的依赖项 (#17419)

llama-index-readers-file [0.4.2]#

  • 从SimpleDirectoryReader的默认加载器中移除MarkdownReader (#17412)

llama-index-core [0.12.9]#

  • 清理模式提取器中的类型提示 (#17394)
  • 修复LLM Reranking处理异常LLM响应时的IndexError问题 (#17353)

llama-index-llms-bedrock-converse [0.4.3]#

  • 修复Bedrock Converse工具使用的回归问题 (#17364)

llama-index-llms-sagemaker-endpoint [0.3.1]#

  • 在SageMakerLLM中将aws_region_name传递给get_aws_service_client() (#12000)

llama-index-postprocessor-voyageai-rerank [0.3.2]#

  • 修复VoyageAIRerank构造函数中的截断问题 (#17343)

llama-index-readers-gitlab [0.3.1]#

  • 修复:正确从Gitlab仓库添加blob文档 (#17392)

llama-index-readers-rss [0.3.2]#

  • 修复rss中的小问题 (#17351)

llama-index-readers-web [0.3.3]#

  • 修复: 防止get_article_urls中出现无限递归 (#17360)

llama-index-vector-stores-azureaisearch [0.3.2]#

  • azureaisearch: 为异步查询添加语义搜索模式支持 (#17335)

llama-index-vector-stores-azurecosmosnosql [1.3.1]#

  • 修复storeindex cosmosnosql查询问题 - (BadRequest) (#17385)

llama-index-vector-stores-milvus [0.5.0]#

  • 功能: Milvus异步支持 (#17378)

llama-index-vector-stores-opensearch [0.5.2]#

  • 修复属性名称中的拼写错误 (#17365)
  • 修复初始化异步AOSS向量存储时的bug (#17340)

llama-index-vector-stores-tablestore [0.2.2]#

  • TablestoreVectorStore: 支持混合查询,修改部分文档。(#17366)
  • TablestoreVectorStore 在将嵌入写入存储时检查其维度。(#17321)

llama-index-vector-stores-qdrant [0.4.2]#

  • 针对query_str为None的qdrant过滤器修复 (#17377)

llama-index-vector-stores-weaviate [1.3.1]#

  • 为weaviate实现client_kwargs["custom_batch"] (#17347)

[2024-12-20]#

llama-index-core [0.12.8]#

  • 修复文档序列化中的排除文本问题 (#17341)
  • 修复awrite_response_to_history中缺失的aput (#17338)

llama-index-graph-rag-cognee [0.1.0]#

  • Cognee集成 (#17314)

llama-index-llms-openai [0.3.12]#

  • 调整o1函数调用需求 (#17328)

[2024-12-18]#

llama-index-core [0.12.7]#

  • 修复:为langchain回调处理器添加超时设置 (#17296)
  • 修复:使Document序列化事件更具向后兼容性 (#17312)

llama-index-embeddings-voyageai [0.3.4]#

  • 为VoyageAI的嵌入模型暴露额外的关键字参数 (#17315)

llama-index-llms-keywordsai [0.1.0]#

  • 新增KeywordsAI LLM (#16860)

llama-index-llms-oci-genai [0.4.0]#

  • 添加OCI生成式AI工具调用支持 (#16888)

llama-index-llms-openai [0.3.11]#

  • 支持新的o1模型 (#17307)

llama-index-postprocessor-voyageai-rerank [0.3.1]#

  • VoyageAI 重排序器可选API密钥 (#17310)

llama-index-vector-stores-azureaisearch [0.3.1]#

  • 改进异步搜索客户端处理 (#17319)

llama-index-vector-stores-azurecosmosmongo [0.4.0]#

  • 修复CosmosDB插入时间戳的bug (#17290)

llama-index-vector-stores-azurecosmosnosql [1.3.0]#

  • 修复CosmosDB插入时间戳的bug (#17290)

[2024-12-17]#

llama-index-core [0.12.6]#

  • [错误修复] 确保在Workflow运行后,StopEvent会从Context._in_progress["_done"]中清除 (#17300)
  • 修复:为langchain回调处理器添加超时设置 (#17296)
  • 调整用户与工具在反应提示中的交互 (#17273)
  • 重构:将文档重构为原生多模态 (#17204)
  • 修复:使ImageDocument继承自Document,保持向后兼容性 (#17259)
  • 修复:在ImageBlock中接受已base64编码的数据 (#17244)
  • 修复(metrics): 修正了NDCG计算并更新了之前的测试 (#17236)
  • 修复:在llama-index-core中移除对llama-index-legacy的依赖 (#17231)
  • 优化了函数工具的默认文档生成功能 (#17208)

llama-index-embeddings-voyageai [0.3.3]#

  • 添加对voyageai >=0.3.0版本的支持 (#17120)
  • 介绍VoyageAI的新型多模态嵌入模型 (#17261)
  • VoyageAI多模态嵌入与修正 (#17284)

llama-index-experimental [0.5.2]#

  • 修复了实验性JSONalyzeQueryEngine的导入错误 (#17228)

llama-index-grapg-stores-neo4j [0.4.4]#

  • 添加Cypher修正器并支持图模式过滤 (#17223)
  • 为neo4j图添加超时配置 (#17267)
  • 向neo4j增强模式添加文本和嵌入类型 (#17289)

llama-index-llms-anthropic [0.6.3]#

  • 向anthropic添加内容块 (#17274)
  • 不要向anthropic发送空白内容 (#17278)
  • 为v0.41.0版本更新anthropic类型导入 (#17299)
  • 修复Anthropic分词器协议(由Devin修复)(#17201)

llama-index-llms-bedrock [0.3.3]#

  • 添加Amazon Bedrock防护栏 (#17281)

llama-index-llms-bedrock-converse [0.4.2]#

  • 添加Amazon Bedrock防护栏 (#17281)

llama-index-llms-gemini [0.4.1]#

  • 支持 Gemini 2.0 (#17249)

llama-index-llms-mistralai [0.3.1]#

  • 为Mistral聊天消息添加工具调用ID/名称 (#17280)

llama-index-llms-nvidia [0.3.1]#

  • 添加llama 3.3-70b作为支持函数调用的模型 (#17253)

llama-index-llms-openai [0.3.10]#

  • 修复OpenAI工具调用的消息字典 (#17254)

llama-index-llms-text-generation-inference [0.3.1]#

  • 修复: TGI上下文窗口 (#17252)

llama-index-multi-modal-llms-anthropic [0.3.1]#

  • 在anthropic多模态llms中处理更多响应类型 (#17302)

llama-index-readers-confluence [0.3.1]#

  • 支持Confluence cookies (#17276)

llama-index-vector-stores-milvus [0.4.0]#

  • 从"vector_store_kwargs"中解析出"milvus_search_config" (#17221)
  • 重构并优化milvus代码 (#17229)

llama-index-vector-stores-pinecone [0.4.2]#

  • 处理检索到的Pinecone索引空值问题 (#17242)

llama-index-vector-stores-qdrant [0.4.1]#

  • 功能:为MetadataFilter和QdrantVectorStore添加NOT过滤条件 (#17270)

llama-index-vector-stores-weaviate [1.3.0]#

  • 为weaviate向量存储集成添加异步支持 (#17220)

[2024-12-09]#

llama-index-core [0.12.5]#

  • 优化了函数工具的默认描述生成 (#17208)

llama-index-multi-modal-llms-azure-openai [0.3.2]#

  • 修复: 放宽对OpenAI LLM依赖的固定版本限制 (#17210)

llama-index-postprocessor-pinecone-native-rerank [0.1.0]#

  • 功能:集成Pinecone托管的重新排序器 (#17192)

llama-index-tools-scrapegraph [0.1.0]#

  • 添加Scrapegraph工具集成 (#17238)

llama-index-vector-stores-postgres [0.3.3]#

  • 将pgvector依赖项更新至版本0.3.6 (#17195)

[2024-12-08]#

llama-index-core [0.12.4]#

  • 修复同步和异步结构化流处理 (#17194)
  • 取消pydantic版本限制,允许2.8或更高版本 (#17193)
  • 更新核心结构化预测流式处理,添加ollama结构化预测 (#17188)
  • 在llama-index-core中升级tenacity依赖版本 (#17178)

llama-index-indices-managed-vectara [0.3.1]#

  • 为Vectara的as_query_engine添加Verbose参数 (#17176)

llama-index-llms-ollama [0.5.0]#

  • 更新核心结构化预测流式处理,添加ollama结构化预测 (#17188)

llama-index-llms-perplexity [0.3.2]#

  • 修复 perplexity 的消息格式 (#17182)

llama-index-readers-web [0.3.1]#

  • 在WholeSiteReader中增加使用URI作为文档ID的功能 (#17187)

llama-index-vector-stores-chroma [0.4.1]#

  • BUG 修复: llama-index-vectorstore-chromadb 适配 chromadb v0.5.17 (#17184)

[2024-12-06]#

llama-index-core [0.12.3]#

  • 为SimpleDirectoryReader添加单元测试覆盖 (#17156)
  • docs: 重写OpenAI图像推理示例,不使用多模态LLM (#17148)
  • 修复(metrics): 修正了NDCG计算并添加了全面的测试用例 (#17126)
  • 功能:改进ImageBlock (#17111)
  • 移除ChatMemoryBuffer中遗忘的打印语句 (#17114)
  • [修复] 将JSONalyzeQueryEngine移至实验性模块 (#17110)

llama-index-embeddings-clip [0.3.1]#

  • 取消对clip模型的使用限制 (#17162)

llama-index-embeddings-openai [0.3.1]#

  • 修复/openai-embbeding重试机制 (#17072)

llama-index-embeddings-text-embeddings-inference [0.3.1]#

  • TEI中的正确授权令牌 (#17158)

llama-index-indices-managed-llama-cloud [0.6.3]#

  • chore: 修复LlamaCloudRetriever中的httpx_client拼写错误 (#17101)
  • 修复: LlamaCloudRetriever中错误的项目ID变量 (#17086)

llama-index-llms-bedrock-converse [0.4.1]#

  • 将AWS Nova模型添加至Bedrock Converse (#17139)

llama-index-llms-ollama [0.4.2]#

  • Ollama LLM: 为_get_response_token_counts添加了TypeError异常处理(#17150)

llama-index-llms-sambanovasystems [0.4.3]#

  • URL中OpenAI标识的变更 (#17161)

llama-index-memory-mem0 [0.2.1]#

  • 修复 mem0 版本检查 (#17159)

llama-index-multi-modal-llms-openai [0.4.0]#

  • 修复:使OpenAIMultiModal能够与新的ChatMessage配合工作 (#17138)

llama-index-postprocessor-bedrock-rerank [0.3.0]#

  • 添加AWS Bedrock重新排序器 (#17134)

llama-index-readers-file [0.4.1]#

  • 为unstructured reader更新文档ID (#17160)

llama-index-retrievers-duckdb-retriever [0.4.0]#

  • 修复:在DuckDBRetriever中使用预处理语句 (#17092)

llama-index-vector-stores-postgres [0.3.2]#

  • 无论架构状态如何,为pgvector创建表 (#17100)

llama-index-vector-stores-weaviate [1.2.4]#

  • 在weaviate中将alpha设置为非空值 (#17163)
  • 使Weaviate向量存储集成能够处理复杂属性 (#17129)
  • 为Weaviate向量存储集成添加对IS_EMPTY元数据过滤器的支持 (#17128)
  • 使Weaviate向量存储集成支持嵌套元数据过滤 (#17107)

[2024-11-26]#

llama-index-core [0.12.2]#

  • 改进工作流的回溯日志记录 (#17040)
  • 工作流的初始版本检查点功能 (#17006)
  • 修复基础组件测试 (#17062)
  • 将代码分割器测试标记为可选 (#17060)
  • 更新贡献指南和开发依赖项 (#17051)
  • 修复WorkflowDone异常的处理 (#17047)

llama-index-embeddings-vertex [0.3.1]#

  • 从vertex依赖项中移除pyarrow (#16997)

llama-index-llms-ibm [0.3.1]#

  • IBM watsonx.ai 完整集成与聊天集成 (#17034)

llama-index-llms-openai [0.3.2]#

  • 修复了在特定场景下openai的tool_choice问题 (#17058)

llama-index-llms-perplexity [0.3.1]#

  • 修复:更新perplexity模型,添加单元测试及小规模修正 (#17045)

llama-index-llms-vertex [0.4.1]#

  • 从vertex依赖项中移除pyarrow (#16997)

llama-index-multi-modal-llms-huggingface [0.2.1]#

  • 添加stream_chat并条件性地将AutoModelClass设置为MllamaForConditionalGeneration (#17031)

llama-index-readers-box [0.3.1]#

  • 修复box api - mypy中断问题 (#17061)

llama-index-vector-stores-deeplake [0.3.2]#

  • deeplake v3 向后兼容性 (#17057)

llama-index-vector-stores-mongodb [0.6.0]#

  • MongoDB Atlas: 新增搜索索引命令及元数据过滤器的测试/示例 (#15265)

llama-index-vector-stores-postgres [0.3.1]#

  • 在pgvector表创建过程中,执行其余初始化操作前检查模式是否存在 (#17063)

[2024-11-20]#

llama-index-core [0.12.1]#

  • 暂时将pydantic固定在<2.10版本
  • 功能[react-multimodal]: 为MultimodalReActAgentWorker添加gemini图像支持 (#16992)

llama-index-indices-managed-llama-cloud [0.6.2]#

  • llama-cloud-index 中的 api_key 拼写错误 (#17001)

llama-index-llms-openai [0.3.1]#

  • 添加对最新gpt-4o模型的支持 (#17015)

llama-index-llms-zhipuai [0.2.1]#

  • zhipuai 为API添加停止参数 (#16996)

llama-index-multi-modal-llms-mistralai [0.3.1]#

  • 添加对mistral最新模型的支持 (#16991)

llama-index-multi-modal-llms-replicate [0.3.1]#

  • 修复:修正replicate多模态包中的拼写错误 (#16998)

llama-index-vector-stores-pinecone [0.4.1]#

  • 为pinecone添加get_nodes功能 (#17007)

[2024-11-17]#

注意:升级到v0.12.0版本需要同时更新所有其他llama-index-*软件包!每个软件包都已进行版本更新。以下仅列出重要变更。

llama-index-core [0.12.0]#

  • 放弃对python3.8的支持,取消numpy版本固定 (#16973)
  • 知识图谱/动态属性图三元组检索限制 (#16928)

llama-index-indices-managed-llama-cloud [0.6.1]#

  • 为LlamaCloudIndex添加ID支持并更新from_documents逻辑,现代化API接口 (#16927)
  • 上传文件时允许跳过等待数据处理的步骤 (#16934)
  • 添加对文件端点的支持 (#16933)

llama-index-indices-managed-vectara [0.3.0]#

  • 添加自定义提示参数 (#16976)

llama-index-llms-bedrock [0.3.0]#

  • 针对消息/完成提示的小修复 (#15729)

llama-index-llms-bedrock-converse [0.4.0]#

  • 修复bedrock converse的异步流式传输问题 (#16942)

llama-index-multi-modal-llms-nvidia [0.2.0]#

  • 添加视觉语言模型支持 (#16751)

llama-index-readers-confluence [0.3.0]#

  • 允许向Confluence客户端传递参数 (#16961)

llama-index-readers-github [0.5.0]#

  • 为GithubRepositoryReader添加基础URL提取方法 (#16926)

llama-index-vector-stores-weaviate [1.2.0]#

  • 允许传入Weaviate向量存储的kwargs参数 (#16954)

[2024-11-11]#

llama-index-core [0.11.23]#

  • 修复流式处理和异常发生时的超时问题 (#16852)
  • 新增 core.multi_modal_llms.generic_utils 的功能 (#16896)
  • 为core.multimodal添加了文档字符串和单元测试 (#16872)
  • 实际为数据摄取管道设置num_workers = num_cpus (#16803)

llama-index-embeddings-nvidia [0.2.5]#

  • 跳过nvdev嵌入模型的模型验证 (#16883)

llama-index-embeddings-modelscope [0.3.0]#

  • 新增对ModelScope嵌入模型的支持 (#16873)

llama-index-graph-stores-kuzu [0.4.0]#

  • 重大变更:更新关系表标签命名规则,现有图表需要重新创建 (#16886)

llama-index-llms-anthropic [0.4.0]#

  • 使用新的Anthropic令牌计数API (#16909)

llama-index-llms-bedrock-converse [0.3.8]#

  • 为Bedrock Converse添加推理配置文件支持并加入Llama 3.1/3.2版本 (#16827)

llama-index-llms-nvidia [0.2.7]#

  • 跳过nvdev llm模型的模型验证 (#16882)

llama-index-llms-modelscope [0.3.0]#

  • 修复 modelscope 中 'pipeline' 在赋值前被引用的问题 (#16864)

llama-index-llms-ollama [0.3.6]#

  • 修复在消息的额外参数中忽略工具调用的问题 (#16764)

llama-index-llms-siliconflow [0.1.0]#

  • 添加siliconflow llm类 (#16861)

llama-index-postprocessor-tei-rerank [0.2.1]#

  • 修复TEI重新排序器中的top-n参数 (#16884)

llama-index-readers-gitbook [0.2.0]#

  • 添加GitBook阅读器 (#16862)

llama-index-readers-google [0.4.3]#

  • 功能:添加相对文件路径到Google Drive (#16907)

llama-index-readers-file [0.3.0]#

  • 升级版本并更新pypdf依赖至5.1.0 (#16905)

llama-index-vector-stores-azureaisearch [0.2.9]#

  • 为Azure搜索添加用户代理头"llamaindex-python" (#16895)

llama-index-vector-stores-clickhouse [0.3.2]#

  • 修复向量存储中的clickhouse初始化问题 (#16903)

[2024-11-05]#

llama-index-core [0.11.22]#

  • 恢复对上下文聊天引擎中提示模板的支持 (#16821)
  • 修复了生成子问题的JSON格式(双大括号问题)(#16820)
  • 改进markdown分割器的元数据 (#16789)
  • 修复空索引 + 生成合成器的问题 (#16785)

llama-index-embeddings-azure-inference [0.2.4]#

  • 支持 api_version 和 Azure AI 模型推理服务 (#16802)

llama-index-embeddings-gemini [0.2.2]#

  • 修复 await-async-embeddings (#16790)

llama-index-embeddings-siliconflow [0.1.0]#

  • 添加siliconflow嵌入类 (#16753)

llama-index-indices-managed-vectara [0.2.4]#

  • 热修复:链式查询配置 (#16818)

llama-index-llms-anthropic [0.3.9]#

  • 将Anthropic Claude Haiku 3.5添加到支持的Claude模型列表中 (#16823)

llama-index-llms-azure-inference [0.2.4]#

  • 支持 api_version 和 Azure AI 模型推理服务 (#16802)

llama-index-llms-bedrock [0.2.6]#

  • 将Anthropic Claude Haiku 3.5添加到bedrock和bedrock-converse集成支持Claude模型列表中 (#16825)

llama-index-llms-bedrock-converse [0.3.7]#

  • 将Anthropic Claude Haiku 3.5添加到bedrock和bedrock-converse集成支持Claude模型列表中 (#16825)

llama-index-llms-dashscope [0.2.5]#

  • 对LLM元数据信息采用更宽松的定义 (#16830)
  • 修复抽象方法签名错误 (#16809)

llama-index-llms-vllm [0.3.0]#

  • 移除最新vllm的beam搜索参数 (#16817)

llama-index-postprocessor-colpali-rerank [0.1.0]#

  • 添加ColPali作为重排序器 (#16829)

llama-index-postprocessor-siliconflow-rerank [0.1.0]#

  • 添加siliconflow重排类 (#16737)

llama-index-readers-microsoft-onedrive [0.2.2]#

  • 修复:为OneDrive阅读器添加required_exts参数 (#16822)

llama-index-vector-stores-chroma [0.3.0]#

  • 支持最新chroma中过滤语法的重大变更 (#16806)

llama-index-vector-stores-pinecone [0.3.0]#

  • 支持稀疏嵌入模型,修复无服务器Pinecone的删除功能 (#16819)

[2024-10-31]#

llama-index-core [0.11.21]#

  • 修复了工作流ctx.get()默认值设为None的问题 (#16756)
  • 修复了react智能体流式处理的各种问题 (#16755)
  • 为查询管道添加单元测试 (#16749)
  • 修复 _merge_ref_doc_kv_pairs 重复for循环的问题 (#16739)
  • bug修复:在创建索引时判断节点是否为none (#16703)
  • 修复了LLMRerank中default_parse_choice_select_answer_fn的解析问题 (#16736)
  • 修复工作流的返回类型检查 (#16724)
  • 修复冗长问题并使SQL错误信息更具参考性 (#16686)

llama-index-embeddings-siliconflow [0.1.0]#

  • 添加siliconflow嵌入类 (#16753)

llama-index-graph-stores-falkordb [0.2.4]#

  • 支持多图的FalkorDB (#16482)

llama-index-llms-anthropic [0.3.8]#

  • 为Vertex AI添加额外的Claude模型名称 (#16692)

llama-index-llms-bedrock-converse [0.3.6]#

  • 在Bedrock中添加了mistral large2模型ID (#16742)
  • 改进Bedrock工具调用功能 (#16723)
  • 为函数调用Bedrock对话模型添加新的sonnet3.5支持 (#16702)
  • 更新Bedrock模型 (#16698)

llama-index-llms-bedrock [0.2.5]#

  • 在Bedrock中添加了mistral large2模型ID (#16742)
  • 为函数调用基础模型新增sonnet3.5支持 (#16702)
  • 更新Bedrock模型 (#16698)

llama-index-llms-cohere [0.3.2]#

  • 为Cohere的新Aya-Expanse模型添加支持 (#16733)

llama-index-llms-dashscope [0.2.3]#

  • DashScope LLM 支持异步 (#16711)

llama-index-llms-nvidia [0.3.4]#

  • 将nvidia/llama-3.2-nv-embedqa-1b-v1添加到支持模型列表中 (#16694)

llama-index-llms-pipeshift [0.1.0]#

  • Pipeshift llamaindex集成 (#16610)

llama-index-memory-mem0 [0.1.0]#

  • 添加Mem0作为内存 (#16708)

llama-index-multi-modal-llms-anthropic [0.2.4]#

  • 修复Anthropic多模态依赖冲突,更新模型 (#16699)

llama-index-node-parser-docling [0.2.0]#

  • 功能:将Docling阅读器和节点解析器升级至Docling v2版本 (#16677)

llama-index-postprocessor-nvidia-rerank [0.3.3]#

  • 将nvidia/llama-3.2-nv-rerankqa-1b-v1添加到支持模型列表中 (#16695)

llama-index-postprocessor-siliconflow-rerank [0.1.0]#

  • 添加siliconflow重排类 (#16737)

llama-index-readers-docling [0.2.0]#

  • 功能:将Docling阅读器和节点解析器更新至Docling v2版本 (#16677)

llama-index-readers-microsoft-onedrive [0.2.1]#

  • 功能:为OneDrive元数据添加权限 (#16646)

llama-index-storage-chat-store-azure [0.2.4]#

  • 为Azure存储组件添加托管身份认证支持 (#16710)
  • 在azure聊天存储中添加缺失的await语句 (#16645)

llama-index-storage-docstore-azure [0.2.1]#

  • 为Azure存储组件添加托管身份认证支持 (#16710)

llama-index-storage-index-store-azure [0.3.1]#

  • 为Azure存储组件添加托管身份认证支持 (#16710)

llama-index-storage-kvstore-azure [0.2.1]#

  • 为Azure存储组件添加托管身份认证支持 (#16710)

llama-index-tools-openai-image-generation [0.3.0]#

  • 使该工具更兼容这些选项,同时也为未来考虑 (#16676)

llama-index-tools-vectara-query [0.1.0]#

  • 添加Vectara查询工具(#16722)

llama-index-vector-stores-azureaisearch [0.2.6]#

  • 允许在Azure Vector Store中定义可检索字段 (#16766)
  • 功能:新增get_nodes azureai搜索功能 (#16761)
  • 在AISearch向量存储中添加了get_nodes()函数 (#16653)
  • 修复AzureAISearchVectorStore中的ID查询问题(修复了通过node_ids删除节点的功能)(#16769)

llama-index-vector-stores-hnswlib [0.2.0]#

  • 修复了持久化相关的问题,对HnswlibVectorStore的构建选项进行了重新排列并新增了选项 (#16673)

llama-index-vector-stores-opensearch [0.4.1]#

  • 使用os_async_client初始化OpensearchVectorClient (#16767)

llama-index-vector-stores-qdrant [0.3.3]#

  • chore: 在qdrant get_nodes返回中添加embeddings (#16760)

llama-index-vector-stores-weaviate [1.1.3]#

  • 如果未提供节点ID,则添加默认ID (#16671)

[2024-10-24]#

llama-index-core [0.11.20]#

  • [实际上什么都没有!]

llama-index-embeddings-cohere [0.3.0]#

  • 新增对Cohere多模态嵌入的支持 (#16667)

llama-index-embeddings-litellm [0.2.2]#

  • 在litellmembedding中支持timeout参数 (#16532)

llama-index-graph-stores-neo4j [0.3.5]#

  • 使neo4j模式刷新可配置 (#16651)
  • 修复:在neo4j查询中接收来自dbms服务器的警告 (#16598)

llama-index-indices-managed-vectara [0.2.3]#

  • 为vectara添加链式后处理 (#16627)

llama-index-llms-anthropic [0.3.7]#

  • 更新Anthropic模型名称 (#16643)

llama-index-llms-openai [0.2.16]#

  • 修复:当choice.delta为None时跳过处理 (#16636)

llama-index-llms-reka [0.1.0]#

  • Reka llamaindex集成(llm和multi-modal-llm) (#15753)

llama-index-multi-modal-llms-reka [0.1.0]#

  • Reka llamaindex集成(llm和multi-modal-llm) (#15753)

llama-index-postprocessor-dashscope-rerank [0.2.1]#

  • 修复调用DashScopeRerank时未设置api_key参数的BUG (#16665)

llama-index-readers-microsoft-sharepoint [0.3.4]#

  • 在访问令牌过期的情况下为请求添加重试逻辑 (#16662)

llama-index-storage-docstore-mongodb [0.2.1]#

  • 修复了mongodb文档存储的缺失依赖错误 (#16654)

llama-index-storage-docstore-couchbase [0.1.0]#

  • 为DocStore和IndexStore添加对Couchbase的支持 (#16509)

llama-index-storage-kvstore-couchbase [0.1.0]#

  • 为DocStore和IndexStore添加对Couchbase的支持 (#16509)

llama-index-storage-index-store-couchbase [0.1.0]#

  • 为IndexStore添加对Couchbase的支持 (#16509)

llama-index-storage-kvstore-mongodb [0.2.1]#

  • 为mongodb kvstore添加缺失的依赖项 (#16632)

llama-index-utils-workflow [0.2.2]#

  • 修复HITL的绘图问题 (#16624)

[2024-10-18]#

llama-index-core [0.11.19]#

  • 在处理asyncio futures时正确抛出检测错误 (#16603)
  • 修复:在PGRetriever中正确传递参数到VectorStoreQuery (#16586)
  • 修复结构化预测的类型提示 (#16585)
  • 添加retry_on_exceptions_with_backoff工具的异步版本 (#16374)
  • 完善CONTRIBUTING.md文档 (#16548)

llama-index-embeddings-gaudi [0.1.0]#

  • 在llama-index-embeddings-gaudi中添加与Intel Gaudi的嵌入集成 (#16521)

llama-index-embeddings-openvino [0.4.1]#

  • 通过OpenVINO嵌入添加OpenClip支持 (#16554)

llama-index-graph-stores-neo4j [0.3.4]#

  • 修复:在neo4j查询中移除来自dbms服务器的警告 (#16598)

llama-index-llms-ibm [0.2.2]#

  • IBM watsonx.ai 聊天集成 + 函数调用支持 (#16589)

llama-index-llms-mistralai [0.2.7]#

  • 添加对mistral最新模型的支持 (#16571)

llama-index-llms-openai [0.2.15]#

  • 在function_calling方法中添加了对微调模型的检查 (#16568)
  • 允许直接传入openai客户端 (#16560)

llama-index-llms-replicate [0.3.0]#

  • 使用Replicate流式API (#16597)

llama-index-multi-modal-llms-openvino [0.1.0]#

  • 添加OpenVINO多模态支持 (#16567)

llama-index-multi-modal-llms-zhipuai [0.1.0]#

  • 添加智谱AI多模态LLM类 (#16551)

llama-index-readers-google [0.4.2]#

  • 使用凭证文件中重定向URI的端口在GoogleDocsReader中运行本地服务器 (#16327)

llama-index-storage-chat-store-postgres [0.1.0]#

  • 功能:Postgres聊天存储集成 (#16557)

llama-index-storage-chat-store-upstash [0.1.2]#

  • 修复upstash聊天存储中的pydantic错误 (#16559)

llama-index-vector-stores-azurecosmosmongo [0.2.2]#

  • 为Azure Cosmos DB Mongo向量存储添加DiskANN支持 (#16581)

llama-index-vector-stores-hnswlib [0.1.0]#

  • Hnswlib 向量存储集成 (#16443)

llama-index-vector-stores-oceanbase [0.1.0]#

  • 新增OceanBase的向量存储集成 (#16550)

llama-index-vector-stores-qdrant [0.3.2]#

  • 在Qdrant向量数据库中增加了文本字段的可选名称。(#16576)

[2024-10-14]#

llama-index-core [0.11.18]#

  • 在添加文本时处理PG检索中的空节点列表 (#16447)
  • 改进text2sql解析功能 (#16445)

llama-index-embeddings-litellm [0.2.2]#

  • 在litellmembedding中支持timeout参数 (#16532)

llama-index-embeddings-zhipuai [0.1.0]#

  • 添加智谱AI嵌入类 (#16505)

llama-index-graph-stores-memgraph [0.1.0]#

  • 添加Memgraph图存储集成 (#16345)

llama-index-llms-anthropic [0.3.6]#

  • 添加对Anthropic Bedrock的支持 (#16478)

llama-index-llms-databricks [0.2.1]#

  • 修复 Databricks 的 structured_predict (#16527)

llama-index-multi-modal-llms-anthropic [0.2.3]#

  • 在AnthropicMultiModal中传播default_headers (#16496)

llama-index-readers-document360 [0.1.0]#

  • 新增Document360Reader。由PLACE团队贡献。(#16305)

llama-index-readers-zyte-serp [0.1.0]#

  • 添加Zyte搜索集成 (#16417)

llama-index-readers-upstage [0.2.1]#

  • 新增了UpstageDocumentParseReader (#16099)

llama-index-storage-chat-store-azure [0.2.2]#

  • 修复azure聊天存储中的异步方法 (#16531)

llama-index-tools-weather [0.1.0]#

  • 修复格式化临时函数 (#16487)

llama-index-vector-stores-elasticsearch [0.3.3]#

  • 在Elasticsearch集成中增加对自定义元数据关键字后缀的支持 (#16519)

llama-index-vector-stores-nile [0.1.0]#

  • 为Nile(多租户Postgres)添加向量存储集成 (#16437)

llama-index-vector-stores-opensearch [0.4.0]#

  • 使用高效的kNN过滤,修复当输入值为字符串数组时的过滤问题 (#16393)

llama-index-vector-stores-oracledb [0.1.4]#

  • 针对Oracle向量存储集成的多项修复 (#16536)

llama-index-vector-stores-qdrant [0.3.1]#

  • 修复Qdrant utils.py中的模型名称拼写错误 (#16494)

llama-index-vector-stores-timescalevector [0.2.2]#

  • 修复timescale向量存储类 (#16539)

llama-index-vector-stores-weaviate [1.1.2]#

  • 修复了来自Weaviate的相似度分数问题 (#16489)

[2024-10-08]#

llama-index-core [0.11.17]#

  • 修复使用不规范的OpenAI类型时ChatMessage的序列化问题 (#16410)

llama-index-embeddings-gemini [0.2.1]#

  • 修复gemini嵌入异步方法 (#16369)

llama-index-llms-gaudi [0.1.0]#

  • 在llama-index-llms-gaudi中添加与Intel Gaudi的llm集成 (#16308)

llama-index-llms-openai [0.2.12]#

  • 如果没有工具调用,则不包含工具调用 (#16408)

llama-index-multi-modal-llms-huggingface [0.1.1]#

  • LlamaMultiModal 类错误修复 (#16413)
  • MultiModal.HuggingFaceMultiModal: 修复错误和README文档,新增stream_complete功能 (#16376)

llama-index-node-parser-docling [0.1.0]#

  • 功能:新增Docling阅读器和节点解析器 (#16406)

llama-index-readers-docling [0.1.0]#

  • 功能:新增Docling阅读器和节点解析器 (#16406)

llama-index-readers-zyte-serp [0.1.0]#

  • 添加Zyte搜索集成 (#16417)

llama-index-vector-stores-azureaisearch [0.2.2]#

  • 修复(bug): 修复了确保metadata_mapping值的错误 (#16431)

llama-index-vector-stores-objectbox [0.1.0]#

  • 新增ObjectBox向量存储集成 (#16314)

[2024-10-03]#

llama-index-core [0.11.16]#

  • 将非字典类型的工具JSON函数参数视为空值(而非意外抛出错误)(#16316)
  • 修复工作流的检测功能 (#16290)
  • (临时解决方案) 在工作流追踪期间抑制令牌分离异常 (#16364)
  • 当节点没有内容时发出警告而非错误 (#16354)
  • 修复 BasePGRetriever 中的拼写错误,该错误导致图形上下文未被添加 (#16357)

llama-index-embeddings-vertex-endpoint [0.1.0]#

  • 添加顶点端点嵌入 (#16351)

llama-index-llms-fireworks [0.2.1]#

  • 在FireworksAI中添加对Meta 3.2模型的支持:1b-instruct;3b-instruct;11b-vision;90b-vision (#16349)

llama-index-multi-modal-llms-openai [0.2.1]#

  • 重构OpenAI的update_tool_calls (#16309)

llama-index-vector-stores-milvus [0.2.7]#

  • 新增对嵌套MetadataFilters和FilterOperator.IS_EMPTY的支持 (#16329)

[2024-10-02]#

llama-index-core [0.11.15]#

  • 为工作流上下文添加了to_dict()from_dict()和序列化器 (#16250)
  • 能够通过handler.cancel_run()取消工作流执行 (#16320)
  • (重大变更) 重构 WorkflowHandler.run_step() 方法,使用户需手动触发 Event 来启动工作流中的下一步 (#16277)

llama-index-embeddings-oracleai [0.1.0]#

  • Oraclevs 集成 (#16161)

llama-index-experimental [0.4.0]#

  • nudge-ft 包并添加一个扩展数据集的示例 (#16269)

llama-index-llms-anthropic [0.3.3]#

  • 为Anthropic LLM添加提示缓存支持 (#16270)

llama-index-llms-gemini [0.3.6]#

  • 在原始数据中输出Google Gemini LLMs的token使用情况 (#16313)

llama-index-llms-openai [0.2.10]#

  • 将4o mini模型添加到Azure OpenAI模型库中 (#16335)

llama-index-llms-vertex [0.3.7]#

  • 移除Vertex AI模型生成配置中的安全设置 (#16337)

llama-index-multi-modal-llms-huggingface [0.1.0]#

  • LlamaIndex 多模态LLM集成:Huggingface (#16133)

llama-index-readers-minio [0.2.1]#

  • 移除多余的打印语句并替换create tmpfile函数 (#16291)

llama-index-readers-oracleai [0.1.0]#

  • Oraclevs 集成 (#16161)

llama-index-readers-web [0.2.3]#

  • 添加Zyte网页阅读器 (#16197)

llama-index-retrievers-bm25 [0.4.0]#

  • 升级依赖以支持最新bm25s版本 (#16339)
  • 更新BM25检索器以使用元数据 (#16267)

llama-index-storage-chat-store-redis [0.3.2]#

  • 修复redis聊天存储中异步客户端的检查 (#16321)

llama-index-storage-chat-store-upstash [0.1.0]#

  • Upstash存储聊天商店集成 (#16237)

llama-index-vector-stores-milvus [0.2.6]#

  • milvus: 始终设置self._collection (#16306)
  • 修复使用index_config创建milvus集合的问题 (#16165)

llama-index-vector-stores-oracledb [0.1.0]#

  • Oracle数据库集成 (#16161)

llama-index-vector-stores-postgres [0.2.6]#

  • 在Postgres向量存储中支持TEXT_MATCH过滤操作符 (#16304)

[2024-09-26]#

llama-index-core [0.11.14]#

  • 增强BaseIndex中的insert方法以支持可自定义的转换 (#16206)
  • 确保ChatMemoryBuffer的聊天记录不会以TOOL消息开头 (#16214)
  • 安全提示助手字符串格式化 (#16219)
  • [功能请求] 支持最大并发 workflow_instance.run() 执行次数 (#16215)
  • 工作流 + 人工参与循环专属支持 (#16220)

llama-index-graph-stores-neptune [0.2.2]#

  • 修复传入提供的客户端时出现的NoneType对象错误 (#16174)

llama-index-llms-ollama [0.3.3]#

  • 修复ollama聊天缺失keep_alive的问题 (#16182)

llama-index-llms-vertex [0.3.6]#

  • 修复顶点初始化函数 (#16216)

llama-index-multi-modal-llms-mistral [0.1.0]#

  • 添加对Mistral多模态LLM的支持 (#16191)

llama-index-readers-jira [0.3.0]#

  • 为Jira阅读器添加分页支持 (#16226)

llama-index-vector-stores-azurecosmosmongo [0.2.1]#

  • Azure Cosmos DB 过滤向量搜索 (#16175)

llama-index-vector-stores-azurecosmosnosql [1.1.0]#

  • Azure Cosmos DB 过滤向量搜索 (#16175)

llama-index-vector-stores-deeplake [0.2.1]#

  • 添加缺失的JWT依赖项 (#16236)

[2024-09-24]#

llama-index-core [0.11.13]#

  • 在属性图中检索时添加字符串节点表示的选项 (#16100)
  • 改进Markdown元素节点解析器及结构化预测的可靠性 (#16172)

llama-index-graph-stores-neptune [0.2.1]#

  • 修复了Neptune添加额外标签的问题 (#16137)

llama-index-llms-vertext [0.3.5]#

  • 将safety_settings传递给send_message方法以修复设置未发送到API的问题 (#16153)

llama-index-readers-box [0.2.3]#

  • 将box sdk升级至>=1.5.0版本 #16169

llama-index-storage-chat-store-dynamodb [0.2.0]#

  • 为dynamodb添加异步支持 (#16139)

llama-index-storage-chat-store-redis [0.3.1]#

  • 为redis添加异步支持 (#16139)

llama-index-vector-stores-astra-db [0.3.0]#

  • 依赖AstraPy 1.5及以上版本以支持AstraDBVectorStore (#16164)

[2024-09-22]#

llama-index-core [0.11.12]#

  • 修正了llm基类发出的Pydantic警告 (#16141)
  • 使用JSON全局安全格式化字符串中的提示变量 (#15734)
  • 在提示助手和响应合成器中考虑工具因素 (#16157)

llama-index-readers-google [0.4.1]#

  • 功能:为Google Drive阅读器元数据添加驱动器链接 (#16156)

llama-index-readers-microsoft-sharepoint [0.3.2]#

  • 为SharePoint阅读器添加required_exts选项 (#16152)

llama-index-vector-stores-milvus [0.2.4]#

  • 支持在MilvusVectorStore中自定义用户模式 (#16151)

[2024-09-20]#

llama-index-core [0.11.11]#

  • 在上下文聊天引擎中使用响应合成器 (#16017)
  • 异步聊天记忆操作 (#16127)
  • SQL查询添加Markdown响应选项 (#16103)
  • 为SimpleDirectoryReader添加对Path的支持 (#16108)
  • 更新聊天消息类以支持多模态 (#15969)
  • 修复: handler.stream_events() 不产生 StopEvent (#16115)
  • 在向量检索器中传递 hybrid_top_k 参数 (#16105)

llama-index-embeddings-elasticsearch [0.2.1]#

  • 修复elasticsearch嵌入异步函数 (#16083)

llama-index-embeddings-jinaai [0.3.1]#

  • 功能:为v3版本更新JinaEmbedding (#15971)

llama-index-experimental [0.3.3]#

  • 增强Pandas查询引擎输出处理器 (#16052)

llama-index-indices-managed-vertexai [0.1.1]#

  • 修复VertexAIIndex客户端中的错误参数 (#16080)

llama-index-node-parser-topic [0.1.0]#

  • 基于MedGraphRAG论文添加TopicNodeParser (#16131)

llama-index-multi-modal-llms-ollama [0.3.2]#

  • 为多模态ollama实现异步功能 (#16091)

llama-index-postprocessor-cohere-rerank [0.2.1]#

  • 功能:在rerank中添加可配置的base_url字段 (#16050)

llama-index-readers-file [0.2.2]#

  • 修复了bytesio导入缺失的错误 (#16096)

llama-index-readers-wordpress [0.2.2]#

  • Wordpress: 允许控制是否检索页面和/或文章 (#16128)
  • 修复问题16071:wordpress需要用户名和密码 (#16072)

llama-index-vector-stores-lancedb [0.2.1]#

  • 修复与最新lancedb客户端的混合搜索问题 (#16057)

llama-index-vector-stores-mongodb [0.3.0]#

  • 修复mongodb混合搜索top-k规格 (#16105)

[2024-09-16]#

llama-index-core [0.11.10]#

  • 工作流的上下文/结果重构 (#16036)
  • 添加稀疏嵌入抽象 (#16018)
  • 修复Pydantic模型的数值验证 (#16008)
  • 人机协作工作流示例 (#16011)

llama-index-callbacks-opik [0.1.0]#

  • opik集成 (#16007)

llama-index-indices-managed-llama-cloud [0.3.1]#

  • 使用图像节点更新llamacloud索引 (#15996)

llama-index-indices-managed-vectara [0.2.2]#

  • 热修复:修复引文文本 (#16015)

llama-index-llms-huggingface [0.3.4]#

  • 修复:当提供tokenizer作为参数时,HuggingFace LLM中出现的不必要警告问题 (#16037)

llama-index-readers-dashvector [0.3.0]#

  • 修复:针对DashVector的新数据连接器适配 (#16028)

llama-index-readers-quip [0.1.0]#

  • 添加Quip阅读器 (#16000)

llama-index-sparse-embeddings-fastembed [0.1.0]#

  • 添加fastembed稀疏嵌入功能 (#16018)

llama-index-vector-stores-elasticsearch [0.2.1]#

  • 修复:从Elasticsearch KVStore获取所有文档 (#16006)

llama-index-vector-stores-lancedb [0.2.3]#

  • 临时限制lancedb版本 (#16045)

llama-index-vector-stores-postgres [0.2.5]#

  • 在PGVectorStore上实现get_nodes() (#16026)

[2024-09-12]#

llama-index-core [0.11.9]#

  • 根据参数为检索查询引擎添加回调管理器 (#15990)
  • 不要将系统提示从函数调用运行器传递到函数调用工作器 (#15986)
  • 修复:当工具名称包含非英文字符时解析react输出报错的问题 (#15956)

llama-index-embeddings-alibabacloud-aisearch [0.1.0]#

  • 新增四个阿里云AI搜索llama-index集成组件:rerank(重排序)、node_parser(节点解析器)、readers(读取器)、embeddings(嵌入模型)(#15934)

llama-index-experimental [0.3.1]#

  • 添加NUDGE微调 (#15954)

llama-index-graph-stores-falkordb [0.2.2]#

  • 更新FalkorDB客户端 (#15940)

llama-index-llms-openai [0.2.5]#

  • 添加对o1 OpenAI模型的支持 (#15979)
  • 将o1的force temp强制设为1.0 (#15983)

llama-index-node-parser-alibabacloud-aisearch [0.1.0]#

  • 新增四个阿里云AI搜索与llamaindex的集成功能:重新排序、节点解析器、读取器和嵌入模块 (#15934)

llama-index-postprocessor-alibabacloud-aisearch-rerank [0.1.0]#

  • 新增四个阿里云AI搜索llama-index集成组件:重排序器、节点解析器、读取器和嵌入模块 (#15934)

llama-index-readers-alibabacloud-aisearch [0.1.0]#

  • 新增四个阿里云AI搜索与llamaindex的集成功能:重排序(rerank)、节点解析器(node_parser)、读取器(readers)、嵌入(embeddings) (#15934)

llama-index-vector-stores-opensearch [0.3.0]#

  • 在OpenSearchVectorClient中区分同步和异步调用 (#15945)

llama-index-vector-stores-postgres [0.2.4]#

  • 修复 PGVectorStore 中的属性错误 (#15961)
  • 添加对引擎参数的支持 (#15951)

llama-index-vector-stores-wordlift [0.4.5]#

  • 捕获nest_asyncio错误 (#15975)

[2024-09-09]#

llama-index-core [0.11.8]#

  • 功能:为工作流步骤添加重试策略配置 (#15757)
  • 在Langchain格式转换中添加文档ID (#15928)

llama-index-chat-store-dynamodb [0.1.0]#

  • 添加DynamoDBChatStore (#15917)

llama-index-cli [0.3.1]#

  • 修复RagCLI中的pydantic错误 (#15931)

llama-index-llms-alibabacloud-aisearch [0.1.0]#

  • 添加llama-index的llms与alibabacloud_aisearch集成 (#15850)

llama-index-llms-mistralai [0.2.3]#

  • 为默认的mistral模型添加对large-latest的函数调用支持 (#15906)

llama-index-llms-vertex [0.3.4]#

  • 将InternalServerError添加到重试装饰器中 (#15921)

llama-index-postprocessor-rankllm-rerank [0.3.0]#

  • 使用新的重新排序器更新RankLLM (#15892)

llama-index-vector-stores-azurecosmosnosql [1.0.0]#

  • 为Azure Cosmos DB NoSql添加向量存储支持 (#14158)

llama-index-readers-microsoft-sharepoint [0.3.1]#

  • 修复SharePoint阅读器中的错误处理,修复下载文件的错误 (#15868)

llama-index-vector-stores-wordlift [0.4.4]#

  • 为WordLift向量存储添加MetadataFilters支持 (#15905)

llama-index-vector-stores-opensearch [0.2.2]#

  • 支持使用knn_score脚本进行Opensearch Serverless过滤查询 (#15899)

[2024-09-06]#

llama-index-core [0.11.7]#

  • 将SentenceSplitter的secondary_chunking_regex设为可选参数 (#15882)
  • 强制OpenAI结构化输出 (#15706)
  • 修复断言错误,为流式智能体添加类型忽略 (#15887)
  • 修复图像文档反序列化问题 (#15857)

llama-index-graph-stores-kuzu [0.3.2]#

  • KuzuPropertyGraphStore 的 Bug 修复:允许在缺少数据块时仍可更新关系 (#15889)

llama-index-llms-bedrock-converse [0.3.0]#

  • 从Bedrock Converse中移除了未使用的llama-index-llms-anthropic依赖项 (#15869)

llama-index-vector-stores-postgres [0.2.2]#

  • 修复PGVectorStore以兼容最新版pydantic,更新pydantic导入 (#15886)

llama-index-vector-stores-tablestore [0.1.0]#

  • 新增TablestoreVectorStore (#15657)

[2024-09-05]#

llama-index-core [0.11.6]#

  • 将llama-deploy文档添加到文档构建中 (#15794)
  • 添加O'Reilly课程手册 (#15845)

llama-index-readers-box [0.2.1]#

  • 各种错误修复 (#15836)

llama-index-readers-file [0.2.1]#

  • 更新ImageReader文件加载逻辑 (#15848)

llama-index-tools-box [0.2.1]#

  • 各种错误修复 (#15836)

llama-index-vector-stores-opensearch [0.2.1]#

  • 删除操作后刷新Opensearch索引 (#15854)

[2024-09-04]#

llama-index-core [0.11.5]#

  • 移除属性图检索器中不必要的断言 (#15832)
  • 使简单的属性图再次可序列化 (#15833)
  • 修复核心组件上FastAPI返回类型的JSON模式 (#15816)

llama-index-llms-nvidia [0.2.2]#

  • NVIDIA llm: 为starcoder模型添加Completion功能 (#15802)

llama-index-llms-ollama [0.3.1]#

  • 添加ollama响应使用情况 (#15773)

llama-index-readers-dashscope [0.2.1]#

  • 修复pydantic v2验证错误 (#15800)

llama-index-readers-discord [0.2.1]#

  • 修复:在DiscordReader中将文档ID从整型转换为字符串 (#15806)

llama-index-vector-stores-mariadb [0.1.0]#

  • 新增MariaDB向量存储集成包 (#15564)

[2024-09-02]#

llama-index-core [0.11.4]#

  • 将mypy添加到核心 (#14883)
  • 修复错误的检测字段/类型 (#15752)
  • FunctionCallingAgent 修复bug并添加轻量级封装以创建智能体 (#15783)
  • 添加文本到SQL高级工作流笔记本 (#15775)
  • 修复:移除流式工作流后的上下文以重新启用流式处理 (#15776)
  • 修复聊天记忆持久化和加载方法以使用正确的JSON格式 (#15545)
  • 修复_example_type类变量在Pydantic V2中被读取为私有属性的问题 (#15758)

llama-index-embeddings-litellm [0.2.1]#

  • 为LiteLLMEmbedding添加dimensions参数,修复了一个无法从环境变量读取变量的错误 (#15770)

llama-index-embeddings-upstage [0.2.1]#

  • 修复初始化UpstageEmbedding类时的upstage嵌入错误 (#15767)

llama-index-embeddings-sagemaker-endpoint [0.2.2]#

  • 修复Sagemaker字段必填问题 (#15778)

llama-index-graph-stores-falkordb [0.2.1]#

  • 修复包含特殊字符的关系upsert (#15769)

llama-index-graph-stores-neo4j [0.3.1]#

  • 为neo4j lpg添加原生向量索引支持并修复向量过滤器 (#15759)

llama-index-llms-azure-inference [0.2.2]#

  • 修复: GitHub 模型元数据检索 (#15747)

llama-index-llms-bedrock [0.2.1]#

  • 更新 base.py 以修复 self 问题 (#15729)

llama-index-llms-ollama [0.3.1]#

  • 添加ollama响应使用情况 (#15773)

llama-index-llms-sagemaker-endpoint [0.2.2]#

  • 修复Sagemaker字段必填问题 (#15778)

llama-index-multi-modal-llms-anthropic [0.2.1]#

  • 支持在不了解文件名的情况下检测图像类型 (#15763)

llama-index-vector-stores-milvus [0.2.2]#

  • 功能:为MilvusVectorStore实现get_nodes方法 (#15696)

llama-index-vector-stores-tencentvectordb [0.2.1]#

  • 修复: tencentvectordb属性名称不一致问题 (#15733)

[2024-08-29]#

llama-index-core [0.11.3]#

  • 重构:合并Context和Session以简化工作流API (#15709)
  • chore: 停止在工作流文档中使用已弃用的 ctx.data (#15716)
  • 修复:当步骤引发时停止流式传输工作流事件 (#15714)
  • 修复多模态LLM的llm_chat_callback功能 (#15700)
  • chore: 提升工作流包(workflow package)的单元测试覆盖率 (#15691)
  • 修复 SimpleVectorStore.from_persist_dir() 的行为 (#15534)

llama-index-embeddings-azure-openai [0.2.5]#

  • 修复Azure嵌入的JSON序列化问题 (#15724)

llama-index-graph-stores-kuzu [0.3.0]#

  • 添加KuzuPropertyGraphStore (#15678)

llama-index-indices-managed-vectara [0.2.1]#

  • 新增了用户自定义函数重新排序器 (#15546)

llama-index-llms-mistralai [0.2.2]#

  • 修复mistral llm中的random_seed类型问题 (#15701)

llama-index-llms-nvidia [0.2.1]#

  • 为NVIDIA LLM添加函数/工具调用支持 (#15359)

llama-index-multi-modal-llms-ollama [0.3.0]#

  • 为多模态LLM更新ollama客户端依赖项 (#15702)

llama-index-readers-web [0.2.1]#

  • 修复:Firecrawl抓取URL响应问题 (#15720)

llama-index-selectors-notdiamond [0.1.0]#

  • 将Not Diamond添加到llama_index (#15703)

llama-index-vector-stores-milvus [0.2.3]#

  • Milvus向量存储中的MMR (#15634)
  • 功能:为MilvusVectorStore实现get_nodes方法 (#15696)

[2024-08-27]#

llama-index-core [0.11.2]#

  • 修复了pydantic v2的工具模式生成功能以处理嵌套模型 (#15679)
  • 功能:支持嵌套工作流的默认值 (#15660)
  • 功能:允许FunctionTool仅使用异步函数 (#15638)
  • 功能:允许从步骤流式传输事件 (#15488)
  • 修复自动检索器pydantic缩进错误 (#15648)
  • 使用工作流实现路由器查询引擎示例 (#15635)
  • 新增使用工作流的多步骤查询引擎示例 (#15438)
  • 为llm级别的操作启动追踪 (#15542)
  • 在CodeSplitter的from_defaults初始化中传递callback_manager (#15585)

llama-index-embeddings-xinference [0.1.0]#

  • 新增Xinference嵌入类 (#15579)

llama-index-llms-ai21 [0.3.3]#

  • 集成功能:支持AI21函数调用 (#15622)

llama-index-llms-anthropic [0.3.0]#

  • 通过GCP Vertex AI新增了对anthropic模型的支持 (#15661)

llama-index-llms-cerebras [0.1.0]#

  • 实现Cerebras集成 (#15665)

llama-index-postprocessor-nvidia-rerank [0.3.1]#

  • 修复下载的nim端点路径 (#15645)
  • 修复llama-index-postprocessor-nvidia-rerank测试 (#15643)

llama-index-postprocessor-xinference-rerank [0.1.0]#

  • 添加xinference重新排序类 (#15639)

llama-index-vector-stores-alibabacloud-opensearch [0.2.1]#

  • 修复AlibabaCloudOpenSearchConfig中的set output fields问题 (#15562)

llama-index-vector-stores-azureaisearch [0.2.1]#

  • 将azure-search-documents升级至2024-07-01 GA API版本,并在索引创建中新增对标量和二进制量化的支持 (#15650)

llama-index-vector-stores-neo4j [0.2.1]#

  • Neo4j向量存储:使嵌入维度检查变为可选 (#15628)

llama-inde-vector-stores-milvus [0.2.1]#

  • 更改Milvus的默认一致性级别 (#15577)

llama-index-vector-stores-elasticsearch [0.3.2]#

  • 修复ElasticsearchStore键错误 (#15631)

[2024-08-23]#

llama-index-core [0.11.1]#

  • 使用algolia替换客户端文档搜索功能 (#15574)
  • 添加关于扩展工作流的文档 (#15573)
  • 将嵌套工作流的方法重命名为add_workflows (#15596)
  • chore: 修复核心代码库中的@step用法 (#15588)
  • 修改ReflectionWorkflow示例笔记本中的validate函数,使用pydantic的model_validate_json方法 (#15567)
  • 功能:允许同一工作流实例的并发运行 (#15568)
  • 文档:从文档和示例中移除冗余的pass_context=True参数 (#15571)

llama-index-embeddings-openai [0.2.3]#

  • 修复了使用pydantic v2时的openai嵌入问题 (#15576)

llama-index-embeddings-voyageai [0.2.1]#

  • 升级voyage ai嵌入客户端依赖 (#15595)

llama-index-llms-vertex [0.3.3]#

  • Vertex LLM: 正确将函数调用部分添加到提示中 (#15569)
  • Vertex LLM:移除手动设置消息内容到函数调用的功能 (#15586)

[2024-08-22]#

llama-index-core [0.11.0]#

  • 移除了已弃用的 ServiceContext -- 现在使用该功能会显示错误信息并附带迁移指南链接
  • 移除了已弃用的 LLMPredictor -- 现在使用它会打印错误信息,任何现有的LLM都可以直接替换使用
  • pandas 设为可选依赖项

Everything Else#

  • 将所有包的次要版本号提升,以适配新版llama-index-core

[2024-08-21]#

llama-index-core [0.10.68]#

  • 移除基础元素节点解析器中的嵌套进度条 (#15550)
  • 为工作流添加详尽文档 (#15556)
  • 添加多策略工作流与反思笔记本示例 (#15445)
  • 从核心移除openai依赖 (#15527)
  • 改进令牌计数器以处理更多响应类型 (#15501)
  • 功能:允许在不使用括号的情况下使用步骤装饰器 (#15540)
  • 功能:工作流服务(又称嵌套工作流)(#15325)
  • 在使用TextToCypher检索器时,移除了必须指定"allowed_query_fields"参数的要求(当使用"cypher_validator"时)(#15506)

llama-index-embeddings-mistralai [0.1.6]#

  • 修复mistral嵌入的使用问题 (#15508)

llama-index-embeddings-ollama [0.2.0]#

  • 使用ollama客户端进行嵌入处理 (#15478)

llama-index-embeddings-openvino [0.2.1]#

  • 支持为openvino嵌入和重新排序器提供静态输入形状 (#15521)

llama-index-graph-stores-neptune [0.1.8]#

  • 添加了代码以公开Neptune的结构化模式 (#15507)

llama-index-llms-ai21 [0.3.2]#

  • 集成:支持AI21工具 (#15518)

llama-index-llms-bedrock [0.1.13]#

  • 支持llama-index与Bedrock集成的令牌计数功能 (#15491)

llama-index-llms-cohere [0.2.2]#

  • 功能:为achat cohere添加工具调用支持 (#15539)

llama-index-llms-gigachat [0.1.0]#

  • 添加gigachat LLM支持 (#15313)

llama-index-llms-openai [0.1.31]#

  • 修复OpenAI令牌使用报告中错误的类型 (#15524)
  • 允许为OpenAI流式传输令牌计数 (#15548)

llama-index-postprocessor-nvidia-rerank [0.2.1]#

  • 添加截断支持 (#15490)
  • 更新至0.2.0版本,移除旧代码 (#15533)
  • 将默认模型更新为nvidia/nv-rerankqa-mistral-4b-v3 (#15543)

llama-index-readers-bitbucket [0.1.4]#

  • 修复从Bitbucket加载文件路径时的问题 (#15311)

llama-index-readers-google [0.3.1]#

  • 增强Google Drive阅读器功能,提升可用性 (#15512)

llama-index-readers-remote [0.1.6]#

  • 检查并清理远程读取器URL (#15494)

llama-index-vector-stores-qdrant [0.2.17]#

  • 修复:在QdrantVectorStore中为稀疏向量设置IDF修饰符 (#15538)

[2024-08-18]#

llama-index-core [0.10.67]#

  • 避免使用nltk 3.9版本,因为该版本存在问题 (#15473)
  • docs: openllmetry 现在使用 instrumentation (#15443)
  • 修复LangChain弃用警告 (#15397)
  • 为Context添加get/set API并确保其协程安全 (#15152)
  • docs: Cleanlab的烹饪手册 (#15352)
  • async_add()中传递kwargs参数以支持向量存储 (#15333)
  • 在结构化llm中转义json (#15404)
  • 文档:新增使用工作流食谱的JSON分析查询引擎 (#15408)

llama-index-embeddings-gigachat [0.1.0]#

  • 添加GigaChat嵌入 (#15278)

llama-index-finetuning [0.1.12]#

  • 功能:集成Azure OpenAI微调 (#15297)

llama-index-graph-stores-neptune [0.1.7]#

  • 公开了NeptuneQueryException并添加了额外的调试信息 (#15448)
  • 修复了问题 #15414 并增加了对Neptune Analytics进行部分匹配的能力 (#15415)
  • 使用反引号转义标签 (#15324)

llama-index-llms-cohere [0.2.1]#

  • 功能:为Cohere添加工具调用功能 (#15144)

llama-index-packs-corrective-rag [0.1.2]#

  • 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)

llama-index-packs-longrag [0.1.1]#

  • 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)

llama-index-packs-self-discover [0.1.2]#

  • 将LongRAGPack、Corrective RAG Pack和Self-Discover Pack移植到工作流中 (#15160)

llama-index-readers-preprocess [0.1.4]#

  • 增强PreprocessReader (#15302)

[2024-08-15]#

llama-index-core [0.10.66]#

  • 由于最新版本已从PyPI移除,临时回退nltk依赖项
  • 新增带有工作流示例的引用查询引擎 (#15372)
  • bug: 语义双重合并分割器会创建超过块大小的块 (#15188)
  • 功能:使工作流中的send_event()能够分配目标步骤 (#15259)
  • 使所有工作流事件可访问,如映射 (#15310)

llama-index-indices-managed-bge-m3 [0.1.0]#

  • 添加BGEM3Index (#15197)

llama-index-llms-huggingface [0.2.7]#

  • 更新HF的completion_to_prompt (#15354)

llama-index-llms-sambanova [0.1.0]#

  • 为SambaNova(Sambaverse和SambaStudio)提供的Llama-index封装器 (#15220)

llama-index-packs-code-hierarchy [0.1.7]#

  • 更新code_hierarchy.py添加php支持 (#15145)

llama-index-postprocessor-dashscope-rerank [0.1.4]#

  • 修复调用llama-index-postprocessor-dashscope-rerank时的错误 (#15358)

llama-index-readers-box [0.1.2]#

  • Box重构:Box文件到Llama-Index文档适配器 (#15314)

llama-index-readers-gcs [0.1.8]#

  • GCSReader: 实现ResourcesReaderMixin和FileSystemReaderMixin (#15365)

llama-index-tools-box [0.1.1]#

  • Box重构:Box文件到Llama-Index文档适配器 (#15314)
  • AI智能体的Box工具 (#15236)

llama-index-vector-stores-postgres [0.1.14]#

  • 检查hnsw索引是否存在 (#15287)

[2024-08-12]#

llama-index-core [0.10.65]#

  • chore: 升级nltk版本 (#15277)

llama-index-tools-box [0.1.0]#

  • AI智能体的Box工具 (#15236)

llama-index-multi-modal-llms-gemini [0.1.8]#

  • 功能:为Gemini多模型添加default_headers (#15296)

llama-index-vector-stores-clickhouse [0.2.0]#

  • chore: 停止在clickhouse集成中使用ServiceContext (#15300)

llama-index-experimental [0.2.0]#

  • chore: 从实验包中移除ServiceContext的使用 (#15301)

llama-index-extractors-marvin [0.1.4]#

  • 修复: MarvinMetadataExtractor功能并添加异步支持 (#15247)

llama-index-utils-workflow [0.1.1]#

  • chore: 升级black版本 (#15288)
  • chore: 升级nltk版本 (#15277)

llama-index-readers-microsoft-onedrive [0.1.9]#

  • chore: 升级nltk版本 (#15277)

llama-index-embeddings-upstage [0.1.3]#

  • chore: 升级nltk版本 (#15277)

llama-index-embeddings-nvidia [0.1.5]#

  • chore: 升级nltk版本 (#15277)

llama-index-embeddings-litellm [0.1.1]#

  • chore: 升级nltk版本 (#15277)

llama-index-legacy [0.9.48post1]#

  • chore: 升级nltk版本 (#15277)

llama-index-packs-streamlit-chatbot [0.1.5]#

  • chore: 升级nltk版本 (#15277)

llama-index-embeddings-huggingface [0.2.3]#

  • 功能:添加了用于创建hf嵌入的多进程处理 (#15260)

[2024-08-09]#

llama-index-core [0.10.64]#

  • 修复:子节点未继承源节点元数据的问题 (#15254)
  • 工作流:修复装饰器中的验证错误 (#15252)
  • 修复:在SQL检索器中去除'''sql(Markdown SQL代码片段)标记 (#15235)

llama-index-indices-managed-colbert [0.2.0]#

  • 在Colbert集成中移除对ServiceContext的使用 (#15249)

llama-index-vector-stores-milvus [0.1.23]#

  • 功能:支持Milvus集合属性 (#15241)

llama-index-llms-cleanlab [0.1.2]#

  • 更新Cleanlab TLM支持的模型 (#15240)

llama-index-llms-huggingface [0.2.6]#

  • 向HF聊天模板添加生成提示 (#15239)

llama-index-llms-openvino [0.2.1]#

  • 向HF聊天模板添加生成提示 (#15239)

llama-index-graph-stores-neo4j [0.2.14]#

  • Neo4jPropertyGraphStore.get() 检查id属性 (#15228)

llama-index-readers-file [0.1.33]#

  • 修复 fs.open 路径类型 (#15226)

[2024-08-08]#

llama-index-core [0.10.63]#

  • 在工作流装饰器中添加num_workers参数以解决步骤并发问题 (#15210)
  • 将子问题查询引擎作为工作流笔记本示例 (#15209)
  • 在工作流笔记本中添加Llamatrace (#15186)
  • 在融合检索器中使用节点哈希而非节点文本来匹配节点 (#15172)

llama-index-embeddings-mistralai [0.1.5]#

  • 处理mistral v1.0客户端 (#15229)

llama-index-extractors-relik [0.1.1]#

  • 修复 relik 提取器跳过错误 (#15225)

llama-index-finetuning [0.1.11]#

  • 处理mistral v1.0客户端 (#15229)

llama-index-graph-stores-neo4j [0.2.14]#

  • 添加neo4j通用节点标签 (#15191)

llama-index-llms-anthropic [0.1.17]#

  • 允许在Anthropic消息中包含图片 (#15227)

llama-index-llms-mistralai [0.1.20]#

  • 处理mistral v1.0客户端 (#15229)

llama-index-packs-mixture-of-agents [0.1.2]#

  • 更新包含工作流的Mixture Of Agents llamapack (#15232)

llama-index-tools-slack [0.1.4]#

  • 修复了ToolSpec中的slack客户端引用 (#15202)

[2024-08-06]#

llama-index-core [0.10.62]#

  • 功能:允许通过使用IS_EMPTY操作符来实现None元数据过滤 (#15167)
  • 修复:在节点解析过程中尽可能使用父源节点到节点的关系 (#15182)
  • 在融合检索器中使用节点哈希而非节点文本来匹配节点 (#15172)

llama-index-graph-stores-neo4j [0.2.13]#

  • Neo4j属性图客户端批处理 (#15179)

llama-index-graph-stores-neptune [0.1.4]#

  • 支持Amazon Neptune的PropertyGraphStore (#15126)

llama-index-llms-gemini [0.2.0]#

  • 功能:为Gemini模型添加default_headers参数 (#15141)

llama-index-llms-openai [0.1.28]#

  • OpenAI: 支持工具参数中的新严格功能 (#15177)

llama-index-vector-stores-opensearch [0.1.14]#

  • 在Opensearch中添加对完整MetadataFilters的支持 (#15176)

llama-index-vector-stores-qdrant [0.2.15]#

  • 功能:允许通过使用IS_EMPTY操作符来筛选None元数据 (#15167)

llama-index-vector-stores-wordlift [0.3.0]#

  • 新增支持字段投影并更新示例Notebook (#15140)

[2024-08-05]#

llama-index-core [0.10.61]#

  • 工作流文档的调整(记录.send_event(),扩展示例)(#15154)
  • 创建上下文管理器以监控事件和跨度标签 (#15116)
  • 键值索引存储更新为接受自定义集合后缀 (#15134)
  • 使工作流上下文能够收集同一事件的多个实例 (#15153)
  • 修复 AsyncStreamingResponse 的 __str__ 方法 (#15131)

llama-index-callbacks-literalai [1.0.0]#

  • 功能(集成): 为Literal AI添加全局处理器(#15064)

llama-index-extractors-relik [0.1.0]#

  • 添加relik知识图谱构造函数 (#15123)

llama-index-graph-stores-neo4j [0.1.12]#

  • 修复查询时neo4j属性图的关系属性问题 (#15068)

llama-index-llms-fireworks [0.1.9]#

  • 功能:为Fireworks llm添加default_headers(#15150)

llama-index-llms-gemini [0.1.12]#

  • 修复:Gemini 1.0 Pro Vision 已正式弃用,将默认模型切换为 gemini-1.5-flash (#15000)

llama-index-llms-paieas [0.1.0]#

  • 为阿里云PAI-EAS添加LLM支持 (#14983)

llama-index-llms-predibase [0.1.7]#

  • 修复HuggingFace托管的微调适配器的Predibase集成 (#15130)

[2024-02-02]#

llama-index-core [0.10.60]#

  • 更新 StartEvent 的使用方式,允许通过点符号访问属性 (#15124)
  • 新增GraphRAGV2笔记本 (#15119)
  • 修复了DynamicLLMPathExtractor中的小错误以及默认输出解析器不工作的问题 (#15085)
  • 更新工作流超时的类型定义 (#15102)
  • 修复(sql_wrapper): 当不存在外键时不提及外键 (#14998)

llama-index-graph-stores-neo4j [0.2.11]#

  • 修复neo4j检索关系属性的问题 (#15111) (#15108)

llama-index-llms-vllm [0.1.9]#

  • 更新base.py以使用@atexit进行清理 (#15047)

llama-index-vector-stores-pinecone [0.1.9]#

  • 升级Pinecone客户端依赖版本 (#15121)

llama-index-vector-stores-redis [0.2.1]#

  • 处理Redis向量存储的嵌套MetadataFilters (#15093)

llama-index-vector-stores-wordlift [0.2.0]#

  • 更新WordLift向量存储以使用新的客户端包 (#15045)

[2024-07-31]#

llama-index-core [0.10.59]#

  • 引入Workflow实现事件驱动的编排功能 (#15067)
  • 为上下文聊天引擎添加了功能,允许将之前的片段插入到当前上下文窗口中 (#14889)
  • 文档中添加了MLflow集成 (#14977)
  • 文档(literalai): 将Literal AI集成添加到文档中 (#15023)
  • 扩展查询管道的跨度覆盖范围 (#14997)
  • asyncio_run()期间使重新抛出的错误跳过构造函数 (#14970)

llama-index-embeddings-ollama [0.1.3]#

  • 添加适当的异步嵌入支持

llama-index-embeddings-textembed [0.0.1]#

  • 添加对textembed嵌入的支持 (#14968)

llama-index-graph-stores-falkordb [0.1.5]#

  • 初步实现FalkorDBPropertyGraphStore (#14936)

llama-index-llms-azure-inference [0.1.1]#

  • 修复:Azure AI推理集成对工具的支持 (#15044)

llama-index-llms-fireworks [0.1.7]#

  • 更新默认模型以支持函数调用功能 (#15046)

llama-index-llms-ollama [0.2.2]#

  • 切换ollama函数调用功能 (#14972)
  • 为Ollama添加函数调用功能 (#14948)

llama-index-llms-openllm [0.2.0]#

  • 更新至 OpenLLM 0.6 (#14935)

llama-index-packs-longrag [0.1.0]#

  • 添加了一个实现LongRAG的LlamaPack (#14916)

llama-index-postprocessor-tei-rerank [0.1.0]#

  • 通过文本嵌入接口支持重新排序器 (#15063)

llama-index-readers-confluence [0.1.7]#

  • confluence reader 排序认证参数优先级 (#14905)

llama-index-readers-file [0.1.31]#

  • UnstructuredReader 使用文件名作为ID (#14946)

llama-index-readers-gitlab [0.1.0]#

  • 添加GitLab阅读器集成 (#15030)

llama-index-readers-google [0.2.11]#

  • 修复平均评分显示为浮点数而非整数的问题 (#15070)

llama-index-retrievers-bm25 [0.2.2]#

  • 在bm25分词中使用适当的词干提取器 (#14965)

llama-index-vector-stores-azureaisearch [0.1.13]#

  • 修复删除不存在索引的问题 (#14949)

llama-index-vector-stores-elasticsearch [0.2.5]#

  • 为稀疏策略禁用嵌入功能 (#15032)

llama-index-vector-stores-kdbai [0.2.0]#

  • 更新混合搜索的默认稀疏编码器 (#15019)

llama-index-vector-stores-milvus [0.1.22]#

  • 增强MilvusVectorStore的灵活索引管理功能,支持覆盖写入 (#15058)

llama-index-vector-stores-postgres [0.1.13]#

  • 新增选项以使用HNSW索引构建PGVectorStore (#15024)

[2024-07-24]#

llama-index-core [0.10.58]#

  • 修复:Token计数器预期response.raw为字典,实际得到ChatCompletionChunk (#14937)
  • 根据智能体步骤返回适当的工具输出,而非全部 (#14885)
  • 异步结构化流的小错误修复 (#14925)

llama-index-llms-fireworks [0.1.6]#

  • 支持fireworks ai llama3.1 (#14914)

llama-index-multi-modal-llms-anthropic [0.1.6]#

  • 将Claude 3.5 Sonnet添加到多模态LLM (#14932)

llama-index-retrievers-bm25 [0.2.1]#

  • 🐞 修复(集成): BM25Retriever持久化缺少参数similarity_top_k (#14933)

llama-index-retrievers-vertexai-search [0.1.0]#

  • 用于Vertex AI搜索的Llamaindex检索器 (#14913)

llama-index-vector-stores-deeplake [0.1.5]#

  • 优化了deeplake.get_nodes()的性能 (#14920)

llama-index-vector-stores-elasticsearch [0.2.3]#

  • Bug修复:在使用稀疏策略时,不要将空的嵌入列表传递给elasticsearch存储 (#14918)

llama-index-vector-stores-lindorm [0.1.0]#

  • 添加对Lindorm的向量存储集成 (#14623)

llama-index-vector-stores-qdrant [0.2.14]#

  • 功能: 允许限制检索元素数量(qdrant) (#14904)

[2024-07-22]#

llama-index-core [0.10.57]#

  • 为VectorContextRetrieve添加可选参数similarity_score (#14831)
  • 为KGs添加属性提取功能(使用属性名称和可选描述)(#14707)
  • 能够将输出类附加到LLM模型 (#14747)
  • 为工具调用/结构化提取添加流式处理功能 (#14759)
  • 修复了在复制/序列化时移除私有变量的问题 (#14860)
  • 修复在数据摄取管道中向向量存储发送空数组的问题 (#14859)
  • 优化数据摄取管道的去重功能 (#14858)
  • 为VectorContextRetriever添加可选参数similarity_score (#14831)

llama-index-llms-azure-openai [0.1.10]#

  • Bug修复: 使用自定义azure_ad_token_provider时AzureOpenAI可能失败 (#14869)

llama-index-llms-bedrock-converse [0.1.5]#

  • 功能: ✨ 在BedrockConverse中实现异步功能 (#14326)

llama-index-llms-langchain [0.3.0]#

  • 将部分依赖项设为可选
  • 在集成中升级langchain版本 (#14879)

llama-index-llms-ollama [0.1.6]#

  • Bug修复: ollama流式响应 (#14830)

llama-index-multi-modal-llms-anthropic [0.1.5]#

  • 对齐依赖项 (#14850)

llama-index-readers-notion [0.1.10]#

  • 更新Notion阅读器以处理重复页面、数据库+页面ID (#14861)

llama-index-vector-stores-milvus [0.1.21]#

  • 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)

llama-index-vector-stores-mongodb [0.1.8]#

  • MongoDB Atlas向量搜索:增强的元数据过滤功能 (#14856)

llama-index-vector-stores-opensearch [0.1.13]#

  • 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)

llama-index-vector-stores-pinecone [0.1.8]#

  • 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)

llama-index-vector-stores-postgres [0.1.12]#

  • 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()功能 (#14800)

llama-index-vector-stores-weaviate [1.0.2]#

  • 为Weviate、Opensearch、Milvus、Postgres和Pinecone向量存储实现了delete_nodes()和clear()方法 (#14800)

[2024-07-19]#

llama-index-core [0.10.56]#

  • 修复了_apply_node_postprocessors函数需要QueryBundle的问题 (#14839)
  • 添加上下文专用响应合成器 (#14439)
  • 修复AgentRunner中AgentRunStepStartEvent的派发 (#14828)
  • 改进ReAct智能体中的输出格式系统提示(#14814)
  • 从输出解析工具中移除双花括号替换功能 (#14735)
  • 更新 simple_summarize.py (#14714)

llama-index-tools-azure-code-interpreter [0.2.0]#

  • chore: 从环境变量中读取 AZURE_POOL_MANAGEMENT_ENDPOINT (#14732)

llama-index-llms-azure-inference [0.1.0]#

  • Azure AI 推理集成 (#14672)

llama-index-embeddings-azure-inference [0.1.0]#

  • Azure AI 推理集成 (#14672)

llama-index-llms-bedrock-converse [0.1.5]#

  • 功能: ✨ 在BedrockConverse中实现异步功能 (#14326)

llama-index-embeddings-yandexgpt [0.1.5]#

  • 为YandexGPT嵌入模型新增集成支持 (#14313)

llama-index-tools-google [0.1.6]#

  • 更新gmailtoolspec的search_messages工具的文档字符串 (#14840)

llama-index-postprocessor-nvidia-rerank [0.1.5]#

  • 添加对nvidia/nv-rerankqa-mistral-4b-v3的支持 (#14844)

llama-index-embeddings-openai [0.1.11]#

  • 修复OpenAI Embedding异步客户端bug (#14835)

llama-index-embeddings-azure-openai [0.1.11]#

  • 修复Azure OpenAI LLM和Embedding异步客户端bug (#14833)

llama-index-llms-azure-openai [0.1.9]#

  • 修复Azure OpenAI LLM和Embedding异步客户端bug (#14833)

llama-index-multi-modal-llms-openai [0.1.8]#

  • 添加对gpt-4o-mini的支持 (#14820)

llama-index-llms-openai [0.1.26]#

  • 添加对gpt-4o-mini的支持 (#14820)

llama-index-llms-mistralai [0.1.18]#

  • 添加对mistralai nemo模型的支持 (#14819)

llama-index-graph-stores-neo4j [0.2.8]#

  • 修复在neo4j属性图中使用sanitize时的bug (#14812)
  • 在neo4j的get_triples中添加过滤器 (#14811)

llama-index-vector-stores-azureaisearch [0.1.12]#

  • 功能:为azureaisearch添加嵌套过滤器 (#14795)

llama-index-vector-stores-qdrant [0.2.13]#

  • 功能:为Qdrant向量存储添加NOT IN过滤器 (#14791)

llama-index-vector-stores-azureaisearch [0.1.11]#

  • 功能:添加对azureaisearch支持的条件 (#14787)
  • 功能:支持azureaisearch收集字符串 (#14712)

llama-index-tools-weather [0.1.4]#

  • 修复OpenWeatherMapToolSpec.forecast_tommorrow_at_location (#14745)

llama-index-readers-microsoft-sharepoint [0.2.6]#

  • 遵循odata.nextLink (#14708)

llama-index-vector-stores-qdrant [0.2.12]#

  • 为QdrantVectorStore添加量化选项 (#14740)

llama-index-vector-stores-azureaisearch [0.1.10]#

  • 功能:改进azureai搜索删除功能 (#14693)

llama-index-agent-openai [0.2.9]#

  • 修复:OpenAI API中的附件需要工具 (#14609)

llama-index-readers-box [0.1.0]#

  • 新集成

llama-index-embeddings-fastembed [0.1.6]#

  • 修复fastembed的Python版本问题 (#14710)

[2024-07-11]#

llama-index-core [0.10.55]#

  • 多项文档更新

llama-index-llms-cleanlab [0.1.1]#

  • 为Cleanlab LLM集成添加用户配置 (#14676)

llama-index-readers-file [0.1.30]#

  • 多个并发pptx读取器对同一个临时文件名的竞争问题 (#14686)

llama-index-tools-exa [0.1.4]#

  • Exa搜索工具的入门指南和示例笔记本变更 (#14690)

[2024-07-10]#

llama-index-core [0.10.54]#

  • 修复:更新简单向量存储过滤器的操作逻辑 (#14674)
  • 添加AgentOps集成 (#13935)

llama-index-embeddings-fastembed [0.1.5]#

  • chore: 更新Qdrant fastembed包中所需的Python版本 (#14677)

llama-index-embeddings-huggingface-optimum-intel [0.1.6]#

  • 升级版本 llama-index-embeddings-huggingface-optimum-intel (#14670)

llama-index-vector-stores-elasticsearch [0.2.2]#

  • 新增了对自定义索引设置的支持 (#14655)

llama-index-callbacks-agentops [0.1.0]#

  • 初始版本发布

llama-index-indices-managed-vertexai [0.0.2]#

  • 修复 #14637 需要更新llamaindex托管的Vertex AI索引。(#14641)

llama-index-readers-file [0.1.29]#

  • 修复简单文件读取器中的非结构化导入问题 (#14642)

[2024-07-08]#

llama-index-core [0.10.53]#

  • 修复了在llama智能体中处理llm.predict_and_call反应使用的问题 (#14556)
  • ReActAgent调用super().__init__时添加缺失的verbose参数 (#14565)
  • 修复当使用IngestionPipeline并行时llama-index-core\llama_index\core\node_parser\text\utils.py的错误 (#14560)
  • 弃用 KnowledgeGraphIndex,调整文档 (#14575)
  • 修复ChatSummaryMemoryBuffer无法总结带有工具调用的聊天历史记录的问题 (#14563)
  • 新增 DynamicLLMPathExtractor 功能,支持通过LLM实时推断模式进行实体检测 (#14566)
  • 添加云文档转换器 (#14608)
  • 修复KnowledgeGraphIndex参数'kg_triple_extract_template'的拼写错误 (#14619)
  • 修复:由于unstructured的变更更新UnstructuredElementNodeParser (#14606)
  • 更新ReAct步骤以解决生成不完整的问题 (#14587)

llama-index-callbacks-promptlayer [0.1.3]#

  • 在请求成功时记录条件日志到promptlayer (#14632)

llama-index-embeddings-databricks [0.1.0]#

  • 添加与Databricks的集成嵌入功能 (#14590)

llama-index-llms-ai21 [0.3.1]#

  • 修复AI21包中MessageRole从错误包导入的问题 (#14596)

llama-index-llms-bedrock [0.1.12]#

  • 在Bedrock AnthropicProvider中处理空响应 (#14479)
  • 为Bedrock InvokeAPI添加claude 3.5 sonnet支持 (#14594)

llama-index-llms-bedrock-converse [0.1.4]#

  • 修复Bedrock Converse的工具使用块问题,当存在多个连续函数调用时 (#14386)

llama-index-llms-optimum-intel [0.1.0]#

  • 在llama-index-integration中添加支持Intel IPEX后端的优化 (#14553)

llama-index-llms-qianfan [0.1.0]#

  • 添加百度千帆大模型 (#14414)

llama-index-llms-text-generation-inference [0.1.4]#

  • 修复:在模型名称查找中崩溃的LLMMetadata问题 (#14569)
  • 从text-embeddings-inference中移除hf embeddings依赖项 (#14592)

llama-index-llms-yi [0.1.1]#

  • 更新yi llm的上下文窗口 (#14578)

llama-index-readers-file [0.1.28]#

  • 为PandasExcelReader.load_data添加fs参数 (#14554)
  • UnstructuredReader功能增强 (#14390)

llama-index-readers-web [0.1.22]#

  • nit: 修复创建文档时的firecrawl问题 (#14579)

llama-index-retrievers-bm25 [0.2.0]#

  • 更新BM25Retriever以使用更新(且更快)的bm25s库 #(14581)

llama-index-vector-stores-qdrant [0.2.11]#

  • 重构:不要吞掉来自Qdrant collection_exists的异常 (#14564)
  • 添加对qdrant bm42的支持,设置稀疏+密集配置 (#14577)

[2024-07-03]#

llama-index-core [0.10.52]#

  • 修复Windows上的文件读取路径错误 (#14537)
  • 由于父类变更,在colbert索引中跟进kwargs传播问题 (#14522)
  • 弃用查询管道智能体,改用FnAgentWorker (#14525O)

llama-index-callbacks-arize-phoenix [0.1.6]#

  • 支持最新版本的arize #14526

llama-index-embeddings-litellm [0.1.0]#

  • 为嵌入功能添加对LiteLLM代理服务器的支持 (#14523)

llama-index-finetuning [0.1.10]#

  • 从sentence_transformers添加设备选择 (#14546)

llama-index-graph-stores-neo4 [0.2.7]#

  • 修复了向量查询返回节点的固定排序问题 (#14461)

llama-index-llms-bedrock [0.1.10]#

  • 处理Bedrock AnthropicProvider中的空响应 (#14479)

llama-index-llms-bedrock-converse [0.1.4]#

  • 修复当添加新的字符串关键字参数时Bedrock Converse的join_two_dicts函数问题 (#14548)

llama-index-llms-upstage [0.1.4]#

  • 添加上游分词器和分词计数方法 (#14502)

llama-index-readers-azstorage-blob [0.1.7]#

  • 修复获取blobs对象名称的bug (#14547)

llama-index-readers-file [0.1.26]#

  • 修复Pandas Excel读取器加载数据时追加文档的问题 (#14501)

llama-index-readers-iceberg [0.1.0]#

  • 为LLamaIndex添加Iceberg Reader集成 (#14477)

llama-index-readers-notion [0.1.8]#

  • 增加了重试机制 (#14488)
  • 添加 list_databases 方法 (#14488)

llama-index-readers-slack [0.1.5]#

  • 增强SlackReader功能,支持从频道名称/模式获取频道ID (#14429)

llama-index-readers-web [0.1.21]#

  • 为firecrawl阅读器添加API网址 (#14452)

llama-index-retrievers-bm25 [0.1.5]#

  • 修复BM25检索器返回节点中的评分问题 (#14495)

llama-index-vector-stores-azureaisearch [0.1.9]#

  • 为Azure AI搜索添加异步方法 (#14496)

llama-index-vector-stores-kdbai [0.1.8]#

  • 兼容Kdbai rest (#14511)

llama-index-vector-stores-mongodb [0.1.6]#

  • 为MongoDBAtlasVectorSearch添加混合搜索和全文搜索功能 (#14490)

[2024-06-28]#

llama-index-core [0.10.51]#

  • 修复了函数调用llms和空工具调用的问题 (#14453)
  • 修复查询管道中ChatMessage未被视作可字符串化的问题 (#14378)
  • 更新模式llm路径提取器,使其也能接收有效三元组列表 (#14357)
  • 当调用build_index_from_nodes时传递kwargs参数 (#14341)

llama-index-agent-dashscope [0.1.0]#

  • 添加阿里云dashscope智能体 (#14318)

llama-index-graph-stores-neo4j [0.2.6]#

  • 为neo4j_property_graph添加MetadataFilters (#14362)

llama-index-llms-nvidia [0.1.4]#

  • 为托管模型添加已知的上下文长度 (#14436)

llama-index-llms-perplexity [0.1.4]#

  • 更新可用模型 (#14409)

llama-index-llms-predibase [0.1.6]#

  • 针对无效API令牌的错误处理优化 (#14440)

llama-index-llms-yi [0.1.0]#

  • 集成Yi模型 (#14353)

llama-index-readers-google [0.2.9]#

  • 为Google Chat创建数据加载器 (#14397)

llama-index-readers-s3 [0.1.10]#

  • 在S3Reader中使s3fs缓存失效 (#14441)

llama-index-readers-structured-data [0.1.0]#

  • 为xlsx、csv、json和jsonl格式添加StructuredDataReader支持 (#14369)

llama-index-tools-jina [0.1.0]#

  • 集成一个名为jina search的新工具 (#14317)

llama-index-vector-stores-astradb [0.1.8]#

  • 更新Astra DB向量存储以使用现代astrapy库 (#14407)

llama-index-vector-stores-chromadb [0.1.10]#

  • 修复chroma获取的id索引访问问题 (#14434)

llama-index-vector-stores-deeplake [0.1.4]#

  • 在deeplake向量存储中实现了delete_nodes()和clear()方法 (#14457)
  • 在deeplake向量存储中实现了get_nodes()方法 (#14388)

llama-index-vector-stores-elasticsearch [0.2.1]#

  • 在Elasticsearch索引创建中添加对动态元数据字段的支持 (#14431)

llama-index-vector-stores-kdbai [0.1.7]#

  • 兼容Kdbai版本 (#14402)

[2024-06-24]#

llama-index-core [0.10.50]#

  • 新增了极其简单的FnAgentWorker用于自定义智能体 (#14329)
  • 在build_index_from_nodes时传递kwargs参数 (#14341)
  • 增强异步工具对嵌套异步的鲁棒性 (#14356)

llama-index-llms-upstage [0.1.3]#

  • 每个llm都是一个聊天模型 (#14334)

llama-index-packs-rag-evaluator [0.1.5]#

  • 在RAG评估包中增加了运行本地嵌入模型的可能性 (#14352)

[2024-06-23]#

llama-index-core [0.10.49]#

  • 改进 llama-cloud 和客户端依赖项 (#14254)

llama-index-indices-managed-llama-cloud [0.2.1]#

  • 改进LlamaCloudIndex中的界面和客户端交互 (#14254)

llama-index-llms-bedrock-converse [0.1.3]#

  • 将Claude Sonnet 3.5添加到Bedrock对话功能 (#14306)

llama-index-llms-upstage [0.1.2]#

  • 设置默认上下文大小 (#14293)
  • 在upstage llm和embeddings上添加api_key别名 (#14233)

llama-index-storage-kvstore-azure [0.1.2]#

  • 优化插入操作 (#14321)

llama-index-utils-azure [0.1.1]#

  • azure_table_storage 参数错误 (#14182)

llama-index-vector-stores-neo4jvector [0.1.6]#

  • 添加neo4j客户端方法 (#14314)

[2024-06-21]#

llama-index-core [0.10.48]#

  • 提升平均精确度的效率 (#14260)
  • 添加crewai + llamaindex食谱 (#14266)
  • 向TextNode添加mimetype字段 (#14279)
  • 改进IBM watsonx.ai文档 (#14271)
  • 更新了文档首页,添加了智能体指南等内容 (#14089)

llama-index-llms-anthropic [0.1.14]#

  • 添加对Claude 3.5的支持 (#14277)

llama-index-llms-bedrock-converse [0.1.4]#

  • 为函数调用实现Bedrock Converse API (#14055)

[2024-06-19]#

llama-index-core [0.10.47]#

  • 添加平均精度作为检索指标 (#14189)
  • 新增了.show_jupyter_graph()方法,用于在Jupyter笔记本中可视化默认的简单图存储 (#14104)
  • 修正了nltk文件查找的行为 (#14040)
  • 为generate_qa_pairs添加了辅助参数 (#14054)
  • 新增分块语义分块方法:双遍合并 (#13629)
  • 支持查询管道的逐步执行 (#14117)
  • 通过仅拒绝8.4.0版本来替换tenacity上限 (#14218)
  • llm.predict_and_call()中传播error_on_no_tool_call参数 (#14253)
  • 在查询管道中,避免将节点转换为字符串,改用get_content() (#14242)
  • 修复NLSQLTableQueryEngine的响应元数据 (#14169)
  • 不要覆盖默认简单属性图中的关系 (#14244)

llama-index-embeddings-ipex-llm [0.1.5]#

  • 支持为ipex嵌入集成选择Intel GPU (#14214)

llama-index-embeddings-mixedbreadai [0.1.0]#

  • 添加mixedbread AI集成 (#14161)

llama-index-graph-stores-neo4j [0.2.5]#

  • 为neo4j upsert relations添加默认节点属性 (#14095)

llama-index-indices-managed-postgresml [0.3.0]#

  • 在PostgresML托管索引中增加了重新排序功能 (#14134)

llama-index-llms-ai21 [0.3.0]#

  • 为异步方法使用异步AI21客户端 (#14193)

llama-index-llms-bedrock-converse [0.1.2]#

  • 添加了(模拟)异步调用以避免错误 (#14241)

llama-index-llms-deepinfra [0.1.3]#

  • 为deep infra llm添加函数调用功能 (#14127)

llama-index-llms-ipex-llm [0.1.8]#

  • 支持为ipex嵌入集成选择Intel GPU (#14214)

llama-index-llms-oci-genai [0.1.1]#

  • 添加对OCI GenAI的命令R支持 (#14080)

llama-index-llms-premai [0.1.7]#

  • Prem AI 模板 Llama Index 支持 (#14105)

llama-index-llms-you [0.1.0]#

  • 集成You.com对话式API (#14207)

llama-index-readers-mongodb [0.1.8]#

  • 为SimpleMongoReader添加元数据字段"collection_name" (#14245)

llama-index-readers-pdf-marker [0.1.0]#

  • 添加标记PDF阅读器 (#14099)

llama-index-readers-upstage [0.1.0]#

  • 添加了upstage作为阅读器 (#13415)

llama-index-postprocessor-mixedbreadai-rerank [0.1.0]#

  • 添加mixedbread AI集成 (#14161)

llama-index-vector-stores-lancedb [0.1.6]#

  • LanceDB: 代码清理,小幅更新 (#14077)

llama-index-vector-stores-opensearch [0.1.12]#

  • 添加选项以自定义默认OpenSearch客户端和引擎 (#14249)

[2024-06-17]#

llama-index-core[0.10.46]#

  • 修复核心模块中的Pin tenacity和numpy (#14203)
  • 添加精确率和召回率指标 (#14170)
  • 为Vertex AI启用函数调用和智能体运行器 (#14088)
  • 修复 batch_gather 的问题 (#14162)

llama-index-utils-huggingface [0.1.1]#

  • 从HuggingFace工具包中移除sentence-transformers依赖项 (#14204)

llama-index-finetuning [0.1.8]#

  • 新增MistralAI微调API支持 (#14101)

llama-index-llms-mistralai [0.1.16]#

  • 更新MistralAI (#14199)

llama-index-llms-bedrock-converse [0.1.0]#

  • 修复: 🐛 修复Bedrock Converse的pyproject.toml文件以支持PyPI发布 (#14197)

llama-index-utils-azure [0.1.1]#

  • 使用典型的include llama_index/ (#14196)
  • 功能/Azure表存储 (#14182)

llama-index-embeddings-nvidia [0.1.4]#

  • 新增对nvidia/nv-embed-v1的支持 (https://huggingface.co/nvidia/NV-Embed-v1) (#14194)

llama-index-retrievers-you [0.1.3]#

  • 新增新闻检索器 (#13934)

llama-index-storage-kvstore-azure [0.1.1]#

  • 修复了一个缺失await的bug。(#14177)

llama-index-embeddings-nomic [0.4.0post1]#

  • 恢复Nomic Embed的einops依赖项 (#14176)

llama-index-retrievers-bm25 [0.1.4]#

  • 修改BM25Retriever的_retrieve方法以使用numpy方法 (#14015)

llama-index-llms-gemini [0.1.11]#

  • 为Gemini.stream_chat添加缺失的@llm_chat_callback() (#14166)

llama-index-llms-vertex [0.2.0]#

  • 为Vertex AI启用函数调用和智能体运行器 (#14088)

llama-index-vector-stores-opensearch [0.1.11]#

  • 功能:在OpenSearch VectorStore上支持VectorStoreQueryMode.TEXT_SEARCH (#14153)

[2024-06-14]#

llama-index-core [0.10.45]#

  • 修复解析SQL查询.py (#14109)
  • 实现NDCG指标 (#14100)
  • 修复结构化生成的固定系统提示 (#14026)
  • 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)
  • 新增PandasExcelReader类用于解析Excel文件 (#13991)
  • 功能:在数据摄取管道中添加跨度(#14062)

llama-index-vector-stores-qdrant [0.2.10]#

  • 修复Qdrant节点 (#14149)

llama-index-readers-mongodb [0.1.7]#

  • 修复 TypeError: 序列项应为字符串实例,但找到整数

llama-index-indices-managed-vertexai [0.0.1]#

  • 功能:为Vertex AI上的LlamaIndex添加托管索引以支持RAG(检索增强生成)(#13626)

llama-index-llms-oci-genai [0.1.1]#

  • 功能/添加命令 r 支持 oci genai (#14080)

llama-index-vector-stores-milvus [0.1.20]#

  • MilvusVectorStore: 输出字段中始终包含text_key (#14076)

llama-index-packs-mixture-of-agents [0.1.0]#

  • 添加混合智能体论文实现 (#14112)

llama-index-llms-text-generation-inference [0.1.0]#

  • 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)

llama-index-llms-huggingface-api [0.1.0]#

  • 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)

llama-index-embeddings-huggingface-api [0.1.0]#

  • 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)

llama-index-utils-huggingface [0.1.0]#

  • 在HuggingFace API和TextGenerationInference包中拆分HuggingFace嵌入功能 (#14013)

llama-index-llms-watsonx [0.1.8]#

  • 功能: IBM watsonx.ai llm 和嵌入集成 (#13600)

llama-index-llms-ibm [0.1.0]#

  • 功能: 集成IBM watsonx.ai的llm和embeddings (#13600)

llama-index-embeddings-ibm [0.1.0]#

  • 功能: 集成IBM watsonx.ai llm和embeddings (#13600)

llama-index-vector-stores-milvus [0.1.19]#

  • 修复milvus过滤器枚举解析问题 (#14111)

llama-index-llms-anthropic [0.1.13]#

  • 修复Anthropic LLM调用问题 (#14108)

llama-index-storage-index-store-postgres [0.1.4]#

  • 错误地使用了Mongo名称而非Postgres (#14107)

llama-index-embeddings-bedrock [0.2.1]#

  • 移除Bedrock嵌入中不必要的排除字段 (#14085)

llama-index-finetuning [0.1.7]#

  • 功能/添加了信任远程代码 (#14102)

llama-index-readers-file [0.1.25]#

  • nit: 修复pandas excel读取器的问题 (#14086)

llama-index-llms-anthropic [0.1.12]#

  • 将anthropic依赖项最低版本更新至0.26.2 (#14091)

llama-index-llms-llama-cpp [0.1.4]#

  • 添加对Llama 3 Instruct提示格式的支持 (#14072)

llama-index-llms-bedrock-converse [0.1.8]#

  • 为函数调用实现Bedrock Converse API (#14055)

llama-index-vector-stores-postgres [0.1.11]#

  • 修复/postgres-metadata-in-filter-single-elem (#14035)

llama-index-readers-file [0.1.24]#

  • 新增PandasExcelReader类用于解析Excel文件 (#13991)

llama-index-embeddings-ipex-llm [0.1.4]#

  • 更新llama-index-embeddings-ipex-llm的依赖项

llama-index-embeddings-gemini [0.1.8]#

  • 在Gemini Embedding中添加API密钥作为字段 (#14061)

llama-index-vector-stores-milvus [0.1.18]#

  • 扩展milvus向量存储的筛选选项 (#13961)

[2024-06-10]#

llama-index-core [0.10.44]#

  • 为SimpleDirectoryReader添加WEBP和GIF作为支持的图像类型 (#14038)
  • 重构:通过mixin为抽象方法添加spans (#14003)
  • 为SQLAutoVectorQueryEngine添加流式支持 (#13947)
  • 为NLSQLTableQueryEngine添加指定embed_model的选项 (#14006)
  • 为多模态LLM添加span支持 (#13966)
  • 在自动上一页下一页中更改为紧凑模式 (#13940)
  • 功能:为流式错误添加异常事件 (#13917)
  • 功能:为工具添加跨度 (#13916)

llama-index-embeddings-azure-openai [0.1.10]#

  • 修复了在使用azure_ad时未设置API密钥导致的错误 (#13970)

llama-index-embeddings-jinaai [0.2.0]#

  • 添加Jina多模态嵌入 (#13861)

llama-index-embeddings-nomic [0.3.0]#

  • 添加Nomic多模态嵌入 (#13920)

llama-index-graph-stores-neo4j [0.2.3]#

  • 在迭代前确保cypher返回列表 (#13938)

llama-index-llms-ai21 [0.2.0]#

  • 新增对AI21 Labs Jamba-Instruct的支持 (#14030)

llama-index-llms-deepinfra [0.1.2]#

  • 修复(deepinfrallm): 默认max_tokens (#13998)

llama-index-llms-vllm [0.1.8]#

  • 修复 __del__() Vllm (#14053)

llama-index-packs-zenguard [0.1.0]#

  • 添加ZenGuard llamapack (#13959)

llama-index-readers-google [0.2.7]#

  • 修复Google Drive阅读器中类属性的设置方式 (#14022)
  • 新增Google地图文本搜索阅读器 (#13884)

llama-index-readers-jira [0.1.4]#

  • 用于托管实例的Jira个人访问令牌 (#13890)

llama-index-readers-mongodb [0.1.6]#

  • 加载时设置文档ID (#14000)

llama-index-retrievers-duckdb-retriever [0.1.0]#

  • 添加 DuckDBRetriever (#13929)

llama-index-vector-stores-chroma [0.1.9]#

  • 为chromadb添加包含过滤器 (#14010)

llama-index-vector-stores-lancedb [0.1.5]#

  • 修复LanceDBVectorStore的add()逻辑 (#13993)

llama-index-vector-stores-milvus [0.1.17]#

  • 支持Milvus向量存储的所有过滤运算符 (#13745)

llama-index-vector-stores-postgres [0.1.10]#

  • 在llama-index-vector-stores-postgres中扩展SQLAlchemy支持至1.4+版本 (#13936)

llama-index-vector-stores-qdrant [0.2.9]#

  • Qdrant: 为doc_id创建有效负载索引 (#14001)

[2024-06-02]#

llama-index-core [0.10.43]#

  • 尽可能为属性图索引向量存储使用默认UUID (#13886)
  • 避免在属性图索引中出现空或重复插入 (#13891)
  • 修复简单属性图存储中get_rel_map的当前深度问题 (#13888)
  • (临时方案) 禁用日志生成器的检测功能 (#13901)
  • 为Dispatcher.get_dispatch_event()方法添加向后兼容性 (#13895)
  • 修复:StructuredPlannerAgent中acreate_plan命名错误 (#13879)

llama-index-graph-stores-neo4j [0.2.2]#

  • 处理类型缺失的情况(neo4j属性图)(#13875)
  • Neo4jPGStore重命名为Neo4jPropertyGraphStore(保持向后兼容性)(#13891)

llama-index-llms-openai [0.1.22]#

  • 改进OpenAI的重试机制 (#13878)

llama-index-readers-web [0.1.18]#

  • AsyncWebPageReader: 使其真正实现异步; 之前存在阻塞行为问题 (#13897)

llama-index-vector-stores-opensearch [0.1.10]#

  • 修复/优化OpenSearch筛选逻辑 (#13804)

[2024-05-31]#

llama-index-core [0.10.42]#

  • 允许在属性图索引中正确设置向量存储 (#13816)
  • 修复langchain桥接中的导入问题 (#13871)

llama-index-graph-stores-nebula [0.2.0]#

  • 为PropertyGraphStore添加NebulaGraph支持 (#13816)

llama-index-llms-langchain [0.1.5]#

  • 修复langchain llm中的fireworks导入问题 (#13871)

llama-index-llms-openllm [0.1.5]#

  • 功能(openllm): 0.5版本SDK集成更新 (#13848)

llama-index-llms-premai [0.1.5]#

  • 更新SDK兼容性 (#13836)

llama-index-readers-google [0.2.6]#

  • 修复了GoogleDriveReader中因令牌导致无限循环的错误 (#13863)

[2024-05-30]#

llama-index-core [0.10.41]#

  • 将嵌入从索引传递到属性图检索器 (#13843)
  • 防止仪器事件/跨度处理程序相互干扰 (#13823)
  • 为完成流添加缺失的事件 (#13824)
  • 当出现异常时缺少 callback_manager.on_event_end 回调 (#13825)

llama-index-llms-gemini [0.1.10]#

  • 使用 model 参数指定gemini的模型名称 (#13791)

llama-index-llms-mistralai [0.1.15]#

  • 添加Mistral代码模型 (#13807)
  • 使用填充中间端点更新mistral codestral (#13810)

llama-index-llms-openllm [0.1.5]#

  • 0.5 版本集成更新 (#13848)

llama-index-llms-vertex [0.1.8]#

  • Vertex集成中Pydantic错误的安全设置 (#13817)

llama-index-readers-smart-pdf-loader [0.1.5]#

  • 在智能PDF阅读器中处理路径对象 (#13847)

[2024-05-28]#

llama-index-core [0.10.40]#

  • 新增了PropertyGraphIndex及其他支持抽象。详见完整指南获取更多详情 (#13747)
  • 更新了AutoPrevNextNodePostprocessor,允许传入响应模式和LLM (#13771)
  • 修复返回直接类型处理 (#13776)
  • 在检索评估器中更正方法名称为_aget_retrieved_ids_and_texts (#13765)
  • 修复: QueryTransformComponent 错误调用 self._query_transform (#13756)
  • SimpleVectorStoreIndex实现更多过滤器 (#13365)

llama-index-embeddings-bedrock [0.2.0]#

  • 新增支持Bedrock Titan Embeddings v2 (#13580)

llama-index-embeddings-oci-genai [0.1.0]#

  • 添加Oracle云基础设施(OCI)生成式AI (#13631)

llama-index-embeddings-huggingface [0.2.1]#

  • 从AutoModel中暴露"safe_serialization"参数 (#11939)

llama-index-graph-stores-neo4j [0.2.0]#

  • 新增 Neo4jPGStore 支持属性图功能 (#13747)

llama-index-indices-managed-dashscope [0.1.1]#

  • 新增了dashscope托管索引 (#13378)

llama-index-llms-oci-genai [0.1.0]#

  • 添加Oracle云基础设施(OCI)生成式AI (#13631)

llama-index-readers-feishu-wiki [0.1.1]#

  • 修复未定义变量 (#13768)

llama-index-packs-secgpt [0.1.0]#

  • SecGPT - LlamaIndex 集成 #13127

llama-index-vector-stores-hologres [0.1.0]#

  • 添加Hologres向量数据库 (#13619)

llama-index-vector-stores-milvus [0.1.16]#

  • 移除FlagEmbedding作为Milvus的依赖项 (#13767) 统一集合构建,无论enable_sparse的值如何 (#13773)

llama-index-vector-stores-opensearch [0.1.9]#

  • 重构以将辅助方法放入类定义中 (#13749)

[2024-05-24]#

llama-index-core [0.10.39]#

  • 添加VectorMemory和SimpleComposableMemory (#13352)
  • 改进MarkdownReader以忽略代码块中的标题 (#13694)
  • 适当的异步元素节点解析器 (#13698)
  • 在函数调用工作器中仅返回消息内容 (#13677)
  • nit: 修复多模态查询引擎以使用元数据 (#13712)
  • 添加笔记本,提供针对冗长工具描述和QueryPlanTool的变通方案 (#13701)

llama-index-embeddings-ipex-llm [0.1.2]#

  • 改进设备选择 (#13644)

llama-index-indices-managed-postgresml [0.1.3]#

  • 添加PostgresML托管索引 (#13623)

llama-index-indices-managed-vectara [0.1.4]#

  • 新增了聊天引擎、流式处理、事实一致性评分等功能 (#13639)

llama-index-llms-deepinfra [0.0.1]#

  • 为DeepInfra LLM模型添加集成 (#13652)

llama-index-llm-ipex-llm [0.1.3]#

  • 为llama-index-llm-ipex-llm添加GPU支持 (#13691)

llama-index-llms-lmstudio [0.1.0]#

  • lmstudio 集成 (#13557)

llama-index-llms-ollama [0.1.5]#

  • 使用aiter_lines函数在ollama集成中迭代行 (#13699)

llama-index-llms-vertex [0.1.6]#

  • 为gemini添加了safety_settings参数 (#13568)

llama-index-postprocessor-voyageai-rerank [0.1.3]#

  • 修复VoyageAI重新排序的bug (#13622)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.4]#

  • 添加缺失的返回 (#13720)

llama-index-readers-web [0.1.17]#

  • 添加Scrapfly网页加载器 (#13654)

llama-index-vector-stores-postgres [0.1.9]#

  • 修复删除和特殊字符相关的bug (#13651)

llama-index-vector-stores-supabase [0.1.5]#

  • 添加try-catch块以防止._client属性不存在的情况 (#13681)

[2024-05-21]#

llama-index-core [0.10.38]#

  • 在BaseSQLTableQueryEngine中启用流式处理 (#13599)
  • 修复关系型节点解析器中的非类型错误 (#13615)
  • 功能(监控): 为所有LLM新增追踪区间 (#13565)
  • 适当限制生成问题的数量 (#13596)
  • 在元素节点解析器中传递 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' 参数 (#13567)
  • 为QueryPipeline添加批处理模式 (#13203)
  • 改进SentenceEmbeddingOptimizer以遵循Settings.embed_model设置 (#13514)
  • ReAct输出解析器的稳健性改进 (#13459)
  • 修复了使用单个参数调用pydantic工具的问题 (#13522)
  • 修复流式聊天未返回时可能出现的意外错误 (#13422)

llama-index-embeddings-nomic [0.2.0]#

  • 通过inference_mode参数实现本地Nomic Embed (#13607)

llama-index-embeddings-nvidia [0.1.3]#

  • 弃用 mode(),改用 __init__(base_url=...) (#13572)
  • 添加对snowflake/arctic-embed-l的支持 (#13555)

llama-index-embeddings-openai [0.1.10]#

  • 更新OpenAI重试机制的触发方式 (#13608)

llama-index-embeddings-upstage [0.1.0]#

  • 集成:upstage LLM和Embeddings (#13193)

llama-index-llms-gemini [0.1.8]#

  • 功能:为多模态LLM和常规模型添加Gemini新模型 (#13539)

llama-index-llms-groq [0.1.4]#

  • 修复:启用工具使用 (#13566)

llama-index-llms-lmstudio [0.1.0]#

  • 添加对lmstudio集成的支持 (#13557)

llama-index-llms-nvidia [0.1.3]#

  • 弃用 mode() 方法,改用 __init__(base_url=...) (#13572)

llama-index-llms-openai [0.1.20]#

  • 更新OpenAI重试机制的触发方式 (#13608)

llama-index-llms-unify [0.1.0]#

  • 添加Unify LLM支持 (#12921)

llama-index-llms-upstage [0.1.0]#

  • 集成:upstage LLM和Embeddings (#13193)

llama-index-llms-vertex [0.1.6]#

  • 为MedLM模型添加支持 (#11911)

llama_index.postprocessor.dashscope_rerank [0.1.0]#

  • 为后处理器添加dashscope重新排序功能 (#13353)

llama-index-postprocessor-nvidia-rerank [0.1.2]#

  • 弃用 mode() 改用 __init__(base_url=...) (#13572)

llama-index-readers-mongodb [0.1.5]#

  • SimpleMongoReader应允许在元数据中包含可选字段 (#13575)

llama-index-readers-papers [0.1.5]#

  • 修复: (ArxivReader) 从隐藏目录读取数据时将exclude_hidden设置为False (#13578)

llama-index-readers-sec-filings [0.1.5]#

  • 修复:向sec.gov发起请求时的sec_filings标头问题 #13548

llama-index-readers-web [0.1.16]#

  • 新增firecrawl搜索模式 (#13560)
  • 更新了Browserbase网页阅读器 (#13535)

llama-index-tools-cassandra [0.1.0]#

  • 为智能体添加了Cassandra数据库工具规范 (#13423)

llama-index-vector-stores-azureaisearch [0.1.7]#

  • 允许查询AzureAISearch时无需非空元数据字段 (#13531)

llama-index-vector-stores-elasticsearch [0.2.0]#

  • 集成来自Elasticsearch客户端的VectorStore (#13291)

llama-index-vector-stores-milvus [0.1.14]#

  • 修复Milvus向量存储的筛选表达式构建问题 (#13591)

llama-index-vector-stores-supabase [0.1.4]#

  • 删除时断开连接 (#13611)

llama-index-vector-stores-wordlift [0.1.0]#

  • 新增了WordLift向量存储 (#13028)

[2024-05-14]#

llama-index-core [0.10.37]#

  • 在调用时为MultiModalLLMCompletionProgram添加image_documents功能 (#13467)
  • 通过从线程切换为asyncio来修复RuntimeError (#13486)
  • 添加对prompt kwarg的支持 (#13405)
  • VectorStore -> BasePydanticVectorStore (#13439)
  • 修复:user_message 不存在的问题 (#13432)
  • 导入缺失的响应类型 (#13382)
  • MultiModalLLM添加CallbackManager (#13400)

llama-index-llms-bedrock [0.1.8]#

  • 从Bedrock Cohere调用模型请求中移除"Truncate"参数 (#13442)

llama-index-readers-web [0.1.14]#

  • Trafilatura 参数和进度条用于 trafilatura 网页阅读器 (#13454)

llama-index-vector-stores-postgres [0.1.8]#

  • 修复 #9522 - 使用混合搜索时出现的SQLAlchemy警告 (#13476)

llama-index-vector-stores-lantern [0.1.4]#

  • 修复 #9522 - 使用混合搜索时出现的SQLAlchemy警告 (#13476)

llama-index-callbacks-uptrain [0.2.0]#

  • 更新UpTrain回调处理器以支持新的升级评估架构 (#13479)

llama-index-vector-stores-zep [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-vearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-upstash [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-typesense [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-timescalerevector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tencentvectordb [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tair [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-singlestoredb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-rocksetdb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neptune [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neo4jvector [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-myscale [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-metal [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-jaguar [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-epsilla [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dynamodb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dashvector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-chatgpt-plugin [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-baiduvectordb [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-bagel [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awsdocdb [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awadb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-alibabacloud-opensearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-wordlift [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-guru [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-pebblo [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-postprocessor-voyageai-rerank [0.1.2]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-sbert-rerank [0.1.4]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-rankllm-rerank [0.1.3]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-rankgpt-rerank [0.1.4]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-openvino-rerank [0.1.3]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-nvidia-rerank [0.1.1]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-jinaai-rerank [0.1.3]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-flag-embedding-rerank [0.1.3]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-colbert-rerank [0.1.2]#

  • 升级重新排序版本 (#13465)

llama-index-postprocessor-cohere-rerank [0.1.6]#

  • 升级重新排序版本 (#13465)

llama-index-multi-modal-llms-openai [0.1.6]#

  • 支持gpt-4o (#13463)

llama-index-llms-openai [0.1.19]#

  • 支持gpt-4o (#13463)

llama-index-packs-rag-fusion-query-pipeline [0.1.4]#

  • 修复RAG融合管道 (#13413)

llama-index-agent-openai [0.2.5]#

  • 修复:更新OpenAIAssistantAgent以使用附件 (#13341)

llama-index-embeddings-deepinfra [0.1.0]#

  • 新增嵌入集成 (#13323)

llama-index-llms-mlx [0.1.0]#

  • 新增llm集成 (#13231)

llama-index-vector-stores-milvus [0.1.12]#

  • 修复:修正了connections.connect()中的连接参数 (#13448)

llama-index-vector-stores-azureaisearch [0.1.6]#

  • 修复 AzureAiSearchVectorStore 元数据 f-string (#13435)

llama-index-vector-stores-mongodb [0.1.5]#

  • 为MongoDBAtlasVectorSearch添加单元测试和集成测试 (#12854)

llama-index-llms-huggingface [0.2.0]#

  • 更新llama-index-llms-huggingface依赖项 (#13420)

llama-index-vector-store-relyt [0.1.0]#

  • 新增向量存储集成

llama-index-storage-kvstore-redis [0.1.5]#

  • 在RedisKVStore中实现异步方法 (#12943)

llama-index-packs-cohere-citation-chat [0.1.5]#

  • 固定llama-index-llms-cohere依赖项 (#13417)

llama-index-llms-cohere [0.2.0]#

  • 固定cohere依赖项 (#13417)

llama-index-tools-azure-code-interpreter [0.1.1]#

  • 修复索引问题和运行时错误消息 (#13414)

llama-index-postprocessor-cohere-rerank [0.1.5]#

  • 修复Cohere Rerank的bug (#13410)

llama-index-indices-managed-llama-cloud [0.1.7]#

  • 修复检索器集成问题 (#13409)

llama-index-tools-azure-code-interpreter [0.1.0]#

  • 新工具

llama-index-readers-google [0.2.5]#

  • 修复GoogleDriveReader中缺失的authorized_user_info检查 (#13394)

llama-index-storage-kvstore-firestore [0.2.1]#

  • 等待Firestore的AsyncDocumentReference (#13386)

llama-index-llms-nvidia [0.1.2]#

  • 添加动态模型列表支持 (#13398)

[2024-05-09]#

llama-index-core [0.10.36]#

  • 为MarkdownElementParser添加start_char_idx和end_char_idx (#13377)
  • 使用全局默认的处理程序 (#13368)

llama-index-readers-pebblo [0.1.0]#

  • 初始版本 (#13128)

llama-index-llms-cohere [0.1.7]#

  • 使用文档参数调用Cohere RAG推理 (#13196)

llama-index-vector-scores-kdbai [0.1.6]#

  • 更新添加方法以解码UTF-8 (#13194)

llama-index-vector-stores-alibabacloud-opensearch [0.1.0]#

  • 初始版本 (#13286)

llama-index-tools-multion [0.2.0]#

  • 更新工具以使用最新的API/SDK (#13373)

llama-index-vector-sores-weaviate [1.0.0]#

  • 更新至weaviate客户端v4 (#13229)

llama-index-readers-file [0.1.22]#

  • 修复PDFReader忽略extra_info的bug (#13369)

llama-index-llms-azure-openai [0.1.8]#

  • 添加同步httpx客户端支持 (#13370)

llama-index-llms-openai [0.1.18]#

  • 添加同步httpx客户端支持 (#13370)
  • 添加缺失的OpenAI模型令牌上下文 (#13337)

llama-index-readers-github [0.1.9]#

  • 添加 fail_on_http_error 参数 (#13366)

llama-index-vector-stores-pinecone [0.1.7]#

  • 为pinecone添加归属标签 (#13329)

llama-index-llms-nvidia [0.1.1]#

  • 将默认的max_tokens设置为1024 (#13371)

llama-index-readers-papers [0.1.5]#

  • 修复arxiv阅读器中隐藏临时目录的问题 (#13351)

llama-index-embeddings-nvidia [0.1.1]#

  • 修复 truncate 传递 aget_query_embedding 和 get_text_embedding 的问题 (#13367)

llama-index-llms-anyscare [0.1.4]#

  • 添加llama-3模型 (#13336)

[2024-05-07]#

llama-index-agent-introspective [0.1.0]#

  • 添加CRITIC和反思智能体集成 (#13108)

llama-index-core [0.10.35]#

  • 修复 from_defaults() 清除摘要记忆缓冲区历史记录的问题 (#13325)
  • 在核心部分使用现有的异步事件循环,而非asyncio.run() (#13309)
  • 修复了在问题浓缩聊天引擎中查询引擎的异步流式传输问题 (#13306)
  • 修复元素节点解析器中extract_table_summaries函数的ValueError处理问题 (#13318)
  • 正确处理QASummaryQueryEngineBuilder和RouterQueryEngine的llm问题 (#13281)
  • 扩展检测负载 (#13302)
  • 修复SQL连接语句中缺少schema的Bug (#13277)

llama-index-embeddings-jinaai [0.1.5]#

  • 在JinaEmbedding类中添加encoding_type参数 (#13172)
  • 修复JinaEmbeddings中的编码类型访问问题 (#13315)

llama-index-embeddings-nvidia [0.1.0]#

  • 添加对NVIDIA NIM嵌入的支持 (#13177)

llama-index-llms-mistralai [0.1.12]#

  • 修复使用Mistral AI进行流式传输时的异步问题 (#13292)

llama-index-llms-nvidia [0.1.0]#

  • 添加NVIDIA NIM LLM支持 (#13176)

llama-index-postprocessor-nvidia-rerank [0.1.0]#

  • 添加NVIDIA NIM重新排序支持 (#13178)

llama-index-readers-file [0.1.21]#

  • 更新MarkdownReader以解析首个标题前的文本 (#13327)

llama-index-readers-web [0.1.13]#

  • 功能:新增蜘蛛网加载器 (#13200)

llama-index-vector-stores-vespa [0.1.0]#

  • 为Vespa添加VectorStore集成 (#13213)

llama-index-vector-stores-vertexaivectorsearch [0.1.0]#

  • 添加对Vertex AI向量搜索作为向量存储的支持 (#13186)

[2024-05-02]#

llama-index-core [0.10.34]#

  • 在聊天引擎流式传输期间移除错误忽略 (#13160)
  • 添加结构化规划智能体 (#13149)
  • 更新规划智能体的基类 (#13228)
  • 修复:当使用SimpleFileNodeParser解析文件且文件扩展名不在FILE_NODE_PARSERS中时出现的错误 (#13156)
  • 为节点解析器添加匹配的source_node.node_id验证 (#13109)
  • 检索指标:更新HitRate和MRR以评估@K检索到的文档。同时将RR作为单独指标添加 (#12997)
  • 添加聊天摘要记忆缓冲区 (#13155)

llama-index-indices-managed-zilliz [0.1.3]#

  • ZillizCloudPipelineIndex 接受灵活的参数来创建管道 (#10134, #10112)

llama-index-llms-huggingface [0.1.7]#

  • 通过集成Hugging Face的text-generation-inference添加工具使用支持 (#12471)

llama-index-llms-maritalk [0.2.0]#

  • 为maritalk添加流式支持 (#13207)

llama-index-llms-mistral-rs [0.1.0]#

  • 集成mistral.rs LLM (#13105)

llama-index-llms-mymagic [0.1.7]#

  • mymagicai API 更新 (#13148)

llama-index-llms-nvidia-triton [0.1.5]#

  • 支持NVIDIA Triton集成的流式传输功能 (#13135)

llama-index-llms-ollama [0.1.3]#

  • 为ollama llms添加了异步支持 (#13150)

llama-index-readers-microsoft-sharepoint [0.2.2]#

  • 从LLMs和嵌入中排除访问控制元数据键 - SharePoint Reader (#13184)

llama-index-readers-web [0.1.11]#

  • 功能: 集成Browserbase网页阅读器 (#12877)

llama-index-readers-youtube-metadata [0.1.0]#

  • 新增YouTube元数据读取器 (#12975)

llama-index-storage-kvstore-redis [0.1.4]#

  • 修复redis kvstore中键值为字节的问题 (#13201)

llama-index-vector-stores-azureaisearch [0.1.5]#

  • 为Azure AI搜索添加筛选条件支持 (#13215)

llama-index-vector-stores-chroma [0.1.7]#

  • 针对新版chroma客户端的小幅更新 (#13158)

llama-index-vector-stores-firestore [0.1.0]#

  • 添加Firestore向量存储 (#12048)

llama-index-vector-stores-kdbai [0.1.5]#

  • 修复了add()后返回ID的小问题 (#12515)

llama-index-vector-stores-milvus [0.1.11]#

  • 为MilvusVectorStore添加混合检索模式 (#13122)

llama-index-vector-stores-postgres [0.1.7]#

  • 在pgvector存储中参数化查询 (#13199)

[2024-04-27]#

llama-index-core [0.10.33]#

  • 添加 agent_worker.as_agent() (#13061)

llama-index-embeddings-bedrock [0.1.5]#

  • 使用Bedrock cohere字符限制 (#13126)

llama-index-tools-google [0.1.5]#

  • 将attendees的默认值更改为空列表 (#13134)

llama-index-graph-stores-falkordb [0.1.4]#

  • 当索引已存在时跳过索引创建错误 (#13085)

llama-index-tools-google [0.1.4]#

  • 修复Google日历create_event API的日期时间问题 (#13132)

llama-index-llms-anthropic [0.1.11]#

  • 将多个提示合并为一个 (#13131)

llama-index-indices-managed-llama-cloud [0.1.6]#

  • 在LlamaCloud Retriever中使用MetadataFilters (#13117)

llama-index-graph-stores-kuzu [0.1.3]#

  • 修复kuzu集成中的.execute()调用 (#13100)

llama-index-vector-stores-lantern [0.1.3]#

  • 维护更新以保持与lantern构建同步 (#13116)

[2024-04-25]#

llama-index-core [0.10.32]#

  • 修正了OutputKeys.from_keys()的错误输出类型 (#13086)
  • 将run_jobs添加到aws基础嵌入 (#13096)
  • 允许用户自定义关键词提取器的提示模板 (#13083)
  • (CondenseQuestionChatEngine) 如果没有对话历史记录,则不压缩问题 (#13069)
  • QueryPlanTool: 在查询计划中的后续(依赖)节点执行工具调用 (#13047)
  • 修复了融合检索器在相似性搜索前有时返回None类型查询的问题 (#13112)

llama-index-embeddings-ipex-llm [0.1.1]#

  • 支持llama-index-embeddings-ipex-llm用于英特尔GPU (#13097)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复raft数据集生成器中的错误 - 多个系统提示 (#12751)

llama-index-readers-microsoft-sharepoint [0.2.1]#

  • 向SharePoint阅读器添加访问控制相关元数据 (#13067)

llama-index-vector-stores-pinecone [0.1.6]#

  • 支持嵌套元数据筛选器 (#13113)

llama-index-vector-stores-qdrant [0.2.8]#

  • 支持嵌套元数据筛选 (#13113)

[2024-04-23]#

llama-index-core [0.10.31]#

  • 修复来自查询引擎的异步流式响应 (#12953)
  • 在元素节点解析器中强制使用uuid (#12951)
  • 添加函数调用LLM程序 (#12980)
  • 使PydanticSingleSelector支持异步API (#12964)
  • 修复查询管道的arun_with_intermediates (#13002)

llama-index-agent-coa [0.1.0]#

  • 添加COA智能体集成 (#13043)

llama-index-agent-lats [0.1.0]#

  • 官方LATs智能体集成 (#13031)

llama-index-agent-llm-compiler [0.1.0]#

  • 添加LLMCompiler智能体集成 (#13044)

llama-index-llms-anthropic [0.1.10]#

  • 新增向Anthropic LLM请求传递自定义标头的功能 (#12819)

llama-index-llms-bedrock [0.1.7]#

  • 将Claude 3 Opus添加到BedRock集成 (#13033)

llama-index-llms-fireworks [0.1.5]#

  • 将新的Llama 3和Mixtral 8x22b模型添加到Llama Index的Fireworks中 (#12970)

llama-index-llms-openai [0.1.16]#

  • 修复AsyncOpenAI在快速创建和销毁实例时出现的"RuntimeError: Event loop is closed"错误 (#12946)
  • 不要在所有OpenAI APIStatusError异常时重试 - 仅针对InternalServerError (#12947)

llama-index-llms-watsonx [0.1.7]#

  • 更新了IBM watsonx基础模型 (#12973)

llama-index-packs-code-hierarchy [0.1.6]#

  • 如果查询节点不存在,则返回父节点 (#12983)
  • 修复了函数被定义两次时的错误 (#12941)

llama-index-program-openai [0.1.6]#

  • 在OpenAIPydanticProgram中添加对Pydantic输出类的流式部分实例支持 (#13021)

llama-index-readers-openapi [0.1.0]#

  • 为OpenAPI文件添加读取器 (#12998)

llama-index-readers-slack [0.1.4]#

  • 修复未处理异常时可能导致的无限循环问题 (#12963)

llama-index-readers-web [0.1.10]#

  • 改进全站阅读器以移除重复链接 (#12977)

llama-index-retrievers-bedrock [0.1.1]#

  • 修复Bedrock KB检索器以使用查询包 (#12910)

llama-index-vector-stores-awsdocdb [0.1.0]#

  • 将AWS DocumentDB集成作为向量存储方法 (#12217)

llama-index-vector-stores-databricks [0.1.2]#

  • 修复 Databricks 向量搜索元数据 (#12999)

llama-index-vector-stores-neo4j [0.1.4]#

  • 支持Neo4j元数据过滤功能 (#12923)

llama-index-vector-stores-pinecone [0.1.5]#

  • 修复了使用稀疏查询模式查询PineconeVectorStore时的错误 (#12967)

llama-index-vector-stores-qdrant [0.2.5]#

  • 针对异步操作和检查集合是否存在的多项修复 (#12916)

llama-index-vector-stores-weaviate [0.1.5]#

  • 为WeviateVectoreStore添加索引删除功能 (#12993)

[2024-04-17]#

llama-index-core [0.10.30]#

  • 将中间输出添加到QueryPipeline (#12683)
  • 修复显示进度导致结果乱序的问题 (#12897)
  • 为简单向量存储添加OR过滤条件支持 (#12823)
  • 改进自定义智能体初始化 (#12824)
  • 修复在没有文档存储的情况下加载管道的问题 (#12808)
  • _arun_step_stream中使用异步_aprocess_actions (#12846)
  • 向StreamChatErrorEvent提供异常 (#12879)
  • 修复了加载和搜索工具规范中的错误 (#12902)

llama-index-embeddings-azure-opena [0.1.7]#

  • 公开azure_ad_token_provider参数以支持令牌过期 (#12818)

llama-index-embeddings-cohere [0.1.8]#

  • 添加httpx_async_client选项 (#12896)

llama-index-embeddings-ipex-llm [0.1.0]#

  • 添加ipex-llm嵌入集成 (#12740)

llama-index-embeddings-octoai [0.1.0]#

  • 添加octoai嵌入功能 (#12857)

llama-index-llms-azure-openai [0.1.6]#

  • 公开azure_ad_token_provider参数以支持令牌过期 (#12818)

llama-index-llms-ipex-llm [0.1.2]#

  • 为IpexLLM集成添加支持加载"低比特格式"模型的功能 (#12785)

llama-index-llms-mistralai [0.1.11]#

  • 支持 open-mixtral-8x22b (#12894)

llama-index-packs-agents-lats [0.1.0]#

  • 新增LATS智能体包 (#12735)

llama-index-readers-smart-pdf-loader [0.1.4]#

  • 使用传入的元数据作为文档 (#12844)

llama-index-readers-web [0.1.9]#

  • 新增了Firecrawl网页加载器 (#12825)

llama-index-vector-stores-milvus [0.1.10]#

  • 使用批量插入到Milvus向量存储 (#12837)

llama-index-vector-stores-vearch [0.1.0]#

  • 将vearch添加到向量存储 (#10972)

[2024-04-13]#

llama-index-core [0.10.29]#

  • 重大变更 已将 PandasQueryEnginePandasInstruction 解析器移至 llama-index-experimental (#12419)
  • 新安装: pip install -U llama-index-experimental
  • 新增导入: from llama_index.experimental.query_engine import PandasQueryEngine
  • 修复了一些核心依赖项,使llamaindex在Python 3.12环境下能良好运行 (#12762)
  • 更新异步工具 run_jobs() 以包含tqdm描述 (#12812)
  • 重构kvdocstore删除方法 (#12681)

llama-index-llms-bedrock [0.1.6]#

  • 支持来自Bedrock的Mistral Large (#12804)

llama-index-llms-openvino [0.1.0]#

  • 新增OpenVino LLMs支持 (#12639)

llama-index-llms-predibase [0.1.4]#

  • 将LlamaIndex-Predibase集成更新至最新API (#12736)
  • 在LlamaIndex-Predibase集成中支持选择Predibase托管或HuggingFace托管的微调适配器 (#12789)

llama-index-output-parsers-guardrails [0.1.3]#

  • 现代化GuardrailsOutputParser (#12676)

llama-index-packs-agents-coa [0.1.0]#

  • 抽象链智能体包 (#12757)

llama-index-packs-code-hierarchy [0.1.3]#

  • 修复了多字节字符分块的问题 (#12715)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复raft数据集生成器中的错误 - 多个系统提示 (#12751)

llama-index-postprocessor-openvino-rerank [0.1.2]#

  • 添加openvino重新排序支持 (#12688)

llama-index-readers-file [0.1.18]#

  • 如果输入路径为字符串,则在docx阅读器中转换为Path (#12807)
  • 使pip check能够检查可选的PDF包 (#12758)

llama-index-readers-s3 [0.1.7]#

  • 在S3Reader中使用默认s3端点时出现错误的文档ID (#12803)

llama-index-retrievers-bedrock [0.1.0]#

  • 添加Amazon Bedrock知识库集成作为检索器 (#12737)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.3]#

  • 添加MongoDB Atlas BM25检索器 (#12519)

llama-index-storage-chat-store-redis [0.1.3]#

  • 修复redis聊天存储中的消息序列化问题 (#12802)

llama-index-vector-stores-astra-db [0.1.6]#

  • 放宽依赖版本以支持 astrapy 1.* (#12792)

llama-index-vector-stores-couchbase [0.1.0]#

  • 添加对Couchbase作为向量存储的支持 (#12680)

llama-index-vector-stores-elasticsearch [0.1.7]#

  • 修复elasticsearch混合rrf的window_size (#12695)

llama-index-vector-stores-milvus [0.1.8]#

  • 新增支持从milvus检索元数据字段 (#12626)

llama-index-vector-stores-redis [0.2.0]#

  • 现代化Redis向量存储,使用redisvl (#12386)

llama-index-vector-stores-qdrant [0.2.0]#

  • 重构:切换默认的Qdrant稀疏编码器 (#12512)

[2024-04-09]#

llama-index-core [0.10.28]#

  • 支持在Markdown节点解析器中使用缩进的代码块围栏 (#12393)
  • 将输出解析器传递给指南评估器 (#12646)
  • 新增了查询管道 + 内存的示例 (#12654)
  • 在CondensePlusContextChatEngine异步模式下添加缺失的节点后处理器 (#12663)
  • 为工具/工具元数据添加了return_direct选项 (#12587)
  • 为批量评估运行器添加重试功能 (#12647)
  • 线程安全的检测工具 (#12638)
  • 协程安全的仪器化Spans #12589
  • 在PDFReader中为非默认文件系统添加内存加载功能 (#12659)
  • 在句子分割器中移除冗余的分词器调用 (#12655)
  • 将SynthesizeComponent添加到快捷导入中 (#12655)
  • 优化了SimpleSummarize中的截断功能 (#12655)
  • 在eval_utils的default_parser中添加错误处理以提高正确性 (#12624)
  • 在RankGPT后处理器节点中添加async_postprocess_nodes (#12620)
  • 修复MarkdownNodeParser的ref_doc_id (#12615)

llama-index-embeddings-openvino [0.1.5]#

  • 添加了对openvino嵌入的初步支持 (#12643)

llama-index-llms-anthropic [0.1.9]#

  • 添加Anthropic工具调用功能 (#12591)

llama-index-llms-ipex-llm [0.1.1]#

  • 添加ipex-llm集成 (#12322)
  • 为ipex-llm的llm集成增加更多数据类型支持 (#12635)

llama-index-llms-openllm [0.1.4]#

  • 在OpenLLM中正确使用PrivateAttr (#12655)

llama-index-multi-modal-llms-anthropic [0.1.4]#

  • 升级了Anthropic依赖版本 (#12655)

llama-index-multi-modal-llms-gemini [0.1.5]#

  • 升级生成式AI依赖项 (#12645)

llama-index-packs-dense-x-retrieval [0.1.4]#

  • 为DenseXRetrievalPack添加流式支持 (#12607)

llama-index-readers-mongodb [0.1.4]#

  • 提升MongoDB读取器的效率 (#12664)

llama-index-readers-wikipedia [0.1.4]#

  • 为Wikipedia阅读器添加了多语言支持 (#12616)

llama-index-storage-index-store-elasticsearch [0.1.3]#

  • 从默认集合名称中移除无效字符 (#12672)

llama-index-vector-stores-milvus [0.1.8]#

  • 新增支持从milvus检索元数据字段 (#12626)
  • Bug修复 - MilvusVectorStore的相似度度量始终为IP (#12611)

[2024-04-04]#

llama-index-agent-openai [0.2.2]#

  • 更新消息线程类型的导入 (#12437)

llama-index-core [0.10.27]#

  • 修复pydantic查询引擎输出为空的问题 (#12469)
  • 为事件(检测)添加span_id属性 (#12417)
  • 修复从docs属性中检索RedisDocstore节点的问题 (#12324)
  • 向retriever_tool添加节点后处理器 (#12415)
  • FLAREInstructQueryEngine:如果查询引擎支持,则委托检索器API(#12503)
  • 使聊天消息转换为字典更安全 (#12526)
  • 修复批量评估运行器中针对多关键字参数的检查 (#12563)
  • 修复了agent_react_multimodal_step.py中关于部分参数的bug (#12566)

llama-index-embeddings-clip [0.1.5]#

  • 新增支持从本地文件路径加载clip模型 (#12577)

llama-index-embeddings-cloudflar-workersai [0.1.0]#

  • 文本嵌入集成:Cloudflare Workers AI (#12446)

llama-index-embeddings-voyageai [0.1.4]#

  • 修复类定义中的pydantic问题 (#12469)

llama-index-finetuning [0.1.5]#

  • QA生成提示中的小拼写错误修复 (#12470)

llama-index-graph-stores-falkordb [0.1.3]#

  • 将redis驱动替换为FalkorDB驱动 (#12434)

llama-index-llms-anthropic [0.1.8]#

  • 新增向Anthropic客户端传递自定义HTTP标头的功能 (#12558)

llama-index-llms-cohere [0.1.6]#

  • 添加对Cohere Command R+模型的支持 (#12581)

llama-index-llms-databricks [0.1.0]#

  • 与Databricks LLM API的集成 (#12432)

llama-index-llms-watsonx [0.1.6]#

  • 更新了Watsonx基础模型 (#12493)
  • 更新了watsonx集成中的基础模型名称 #12491

lama-index-postprocessor-rankllm-rerank [0.1.2]#

  • 在RankLLM中添加RankGPT支持 (#12475)

llama-index-readers-microsoft-sharepoint [0.1.7]#

  • 默认对SharePoint使用递归策略 (#12557)

llama-index-readers-web [0.1.8]#

  • 修复了可读性网页阅读器中playwright异步API的bug (#12520)

llama-index-vector-stores-kdbai [0.1.5]#

  • 修复了小型 to_list 问题 (#12515)

llama-index-vector-stores-neptune [0.1.0]#

  • 添加对Neptune Analytics作为向量存储的支持 (#12423)

llama-index-vector-stores-postgres [0.1.5]#

  • 修复(postgres): 数值型元数据过滤器 (#12583)

[2024-03-31]#

llama-index-core [0.10.26]#

  • 在QueryFusionRetriever中传递正确的查询包 (#12387)
  • 更新llama_parse_json_element.py以修复列表错误 (#12402)
  • 向检索工具添加节点后处理器 (#12415)
  • 修复了在元素节点解析器的回退逻辑中未遵循用户指定的llm的错误(#12403)
  • 为异步回调管理器事件记录正确的LLM响应键 (#12421)
  • 对两个内置的react系统提示进行去重;同时使其能够从Markdown文件中读取 (#12307)
  • 修复BatchEvalRunner中针对多评估器的eval_kwargs_lists的bug (#12418)
  • 为向量存储索引insert_nodes添加回调管理器事件 (#12443)
  • 修复了当聊天消息包含pydantic API对象时,将其序列化到聊天存储中的问题 (#12394)
  • 修复了内存获取操作缓慢的问题(由多次调用get_all()引起)(#12394)
  • 修复了智能体+工具消息对从内存中被截断的问题 (#12394)
  • 为对象索引添加了FnNodeMapping (#12391)
  • 使对象映射对于对象索引变为可选/隐藏 (#12391)
  • 使从现有向量数据库创建对象索引更加容易 (#12391)
  • 当LLM未能遵循react响应模板时,告知它 #12300

llama-index-embeddings-cohere [0.1.5]#

  • 将cohere版本升级至5.1.1 (#12279)

llama-index-embeddings-itrex [0.1.0]#

  • 添加Intel Transformers扩展的嵌入模型 (#12410)

llama-index-graph-stores-neo4j [0.1.4]#

  • 使neo4j查询不区分大小写 (#12337)

llama-index-llms-cohere [0.1.5]#

  • 将cohere版本升级至5.1.1 (#12279)

llama-index-llms-ipex-llm [0.1.0]#

  • 添加ipex-llm集成 (#12322)

llama-index-llms-litellm [0.1.4]#

  • 修复 litellm ChatMessage 角色验证错误 (#12449)

llama-index-llms-openai [0.1.14]#

  • 在OpenAI中使用FunctionCallingLLM基类 (#12227)

llama-index-packs-self-rag [0.1.4]#

  • 修复llama-index-core依赖项 (#12374)

llama-index-postprocessor-cohere-rerank [0.1.4]#

  • 将cohere版本升级至5.1.1 (#12279)

llama-index-postprocessor-rankllm-rerank [0.1.1]#

  • 新增了RankLLM重新排序功能 (#12296)
  • 修复了RankLLM的问题 (#12399)

llama-index-readers-papers [0.1.4]#

  • 修复了路径名称的bug (#12366)

llama-index-vector-stores-analyticdb [0.1.1]#

  • 新增 AnalyticDB 向量存储支持 (#12230)

llama-index-vector-stores-kdbai [0.1.4]#

  • 修复了导入/自述文件中的拼写错误 (#12370)

llama-index-vector-stores-qdrant [0.1.5]#

  • 为qdrant添加in过滤运算符 (#12376)

[2024-03-27]#

llama-index-core [0.10.25]#

  • 在KnowledgeGraphQueryEngine的NodeWithScore中添加评分 (#12326)
  • 批量评估运行器修复 (#12302)

llama-index-embeddings-cohere [0.1.5]#

  • 新增了对二进制/量化嵌入的支持 (#12321)

llama-index-llms-mistralai [0.1.10]#

  • 为MistralAI添加自定义端点支持 (#12328)

llama-index-storage-kvstore-redis [0.1.3]#

  • 修复从docs属性中检索RedisDocstore节点的问题 (#12324)

[2024-03-26]#

llama-index-core [0.10.24]#

  • LlamaDebugHandler中实现美观打印 (#12216)
  • 对pandas查询引擎实施更严格的解释器约束 (#12278)
  • PandasQueryEngine 现在可以执行 'pd.*' 函数 (#12240)
  • 修复文档存储删除函数中的元数据删除问题 (#12276)
  • 改进的OpenAI智能体解析函数钩子 (#12062)
  • 为SimpleDirectoryReader添加raise_on_error标志 (#12263)
  • 移除核心模块中未捕获的openai导入 (#12262)
  • 修复 download_llama_dataset 和 download_llama_pack (#12273)
  • 实现EvalQueryEngineTool (#11679)
  • 扩展AgentRunner的仪器化Span覆盖范围 (#12249)
  • 新增函数调用智能体/LLM的概念(目前支持mistral)(#12222, )

llama-index-embeddings-huggingface [0.2.0]#

  • 使用 sentence-transformers 作为后端 (#12277)

llama-index-postprocessor-voyageai-rerank [0.1.0]#

  • 添加了voyageai作为重新排序器 (#12111)

llama-index-readers-gcs [0.1.0]#

  • 新增了Google云存储读取器 (#12259)

llama-index-readers-google [0.2.1]#

  • 支持不同的驱动器 (#12146)
  • 从Google Drive Reader中移除不必要的PyDrive依赖项 (#12257)

llama-index-readers-readme [0.1.0]#

  • 新增了readme.com阅读器 (#12246)

llama-index-packs-raft [0.1.3]#

  • 为RAFT添加了包 (#12275)

[2024-03-23]#

llama-index-core [0.10.23]#

  • 在基础LLM类、OpenAI和MistralAI中新增了(a)predict_and_call()函数 (#12188)
  • 修复了异步智能体流中wait()的bug (#12187)

llama-index-embeddings-alephalpha [0.1.0]#

  • 新增了alephalpha嵌入功能 (#12149)

llama-index-llms-alephalpha [0.1.0]#

  • 新增alephalpha LLM (#12149)

llama-index-llms-openai [0.1.7]#

  • 修复了异步智能体流中的wait()错误 (#12187)

llama-index-readers-docugami [0.1.4]#

  • 修复了docugami阅读器中的导入错误 (#12154)

llama-index-readers-file [0.1.12]#

  • 修复远程文件系统中的PDFReader (#12186)

[2024-03-21]#

llama-index-core [0.10.22]#

  • 将文档后端从sphinx更新为mkdocs,添加了全部API参考,进行了轻度重组,优化了搜索功能 (#11301)
  • BaseReader类添加了异步加载功能(目前是模拟异步)(#12156)
  • 修复SimpleDirectoryReader中非本地文件系统的路径实现 (#12141)
  • 在instrumentation中添加args/kwargs到spans,为检索事件添加payloads (#12147)
  • [react智能体] 遇到异常时明确提示,以便智能体能够自我修正 (#12137)

llama-index-embeddings-together [0.1.3]#

  • 新增了速率限制处理功能 (#12127)

llama-index-graph-stores-neptune [0.1.3]#

  • 添加对Amazon Neptune的支持作为图存储 (#12097)

llama-index-llms-vllm [0.1.7]#

  • 修复VllmServer使其无需依赖CUDA的vllm核心即可工作 (#12003)

llama-index-readers-s3 [0.1.4]#

  • 在S3Reader中使用S3FS (#12061)

llama-index-storage-docstore-postgres [0.1.3]#

  • 添加了正确的kvstore依赖项 (#12157)

llama-index-storage-index-store-postgres [0.1.3]#

  • 添加了正确的kvstore依赖项 (#12157)

llama-index-vector-stores-elasticsearch [0.1.6]#

  • 修复es添加函数中未关闭的会话 #12135

llama-index-vector-stores-kdbai [0.1.3]#

  • 添加对KDBAIVectorStore的支持 (#11967)

[2024-03-20]#

llama-index-core [0.10.21]#

  • 异步元素的延迟初始化 StreamingAgentChatResponse (#12116)
  • 修复通过SynthesisEndEvent导致的流式生成器获取错误 (#12092)
  • CLIP嵌入更多模型 (#12063)

llama-index-packs-raptor [0.1.3]#

  • 在摘要模块中添加 num_workers 参数 (#)

llama-index-readers-telegram [0.1.5]#

  • 修复日期时间字段 (#12112)
  • 新增选择帖子/消息时间范围的功能 (#12078)

llama-index-embeddings-openai [0.1.7]#

  • 为OpenAI嵌入功能添加API版本/基础API作为可选参数 (#12091)

llama-index-networks [0.2.1]#

  • 为网络检索器添加节点后处理功能 (#12027)
  • 添加隐私安全网络演示 (#12027)

llama-index-callbacks-langfuse [0.1.3]#

  • 杂务:提升langfuse依赖的最低版本 (#12077)

llama-index-embeddings-google [0.1.4]#

  • 杂务:升级google-generativeai依赖项 (#12085)

llama-index-embeddings-gemini [0.1.5]#

  • 杂务:升级google-generativeai依赖项 (#12085)

llama-index-llms-gemini [0.1.6]#

  • 杂务:升级google-generativeai依赖项 (#12085)

llama-index-llms-palm [0.1.4]#

  • 杂务:升级google-generativeai依赖项 (#12085)

llama-index-multi-modal-llms-google [0.1.4]#

  • 杂务: 升级google-generativeai依赖项 (#12085)

llama-index-vector-stores-google [0.1.5]#

  • 杂务: 升级google-generativeai依赖项 (#12085)

llama-index-storage-kvstore-elasticsearch [0.1.0]#

  • 新增集成 (#12068)

llama-index-readers-google [0.1.7]#

  • 修复 - Google Drive 无法加载同名文件的问题 (#12022)

llama-index-vector-stores-upstash [0.1.3]#

  • 为UpstashVectorStore添加元数据过滤支持 (#12054)

llama-index-packs-raptor [0.1.2]#

  • 修复:防止RaptorPack无限递归 (#12008)

llama-index-embeddings-huggingface-optimum [0.1.4]#

  • 修复(OptimumEmbedding): 移除导致ONNX验证问题的token_type_ids

llama-index-llms-anthropic [0.1.7]#

  • 修复:Anthropic LLM 合并相同角色的连续消息 (#12013)

llama-index-packs-diff-private-simple-dataset [0.1.0]#

  • DiffPrivacy ICL 包 - OpenAI 完成型LLMs (#11881)

llama-index-cli [0.1.11]#

  • 从download_llama_dataset命令中移除llama_hub_url关键字 (#12038)

[2024-03-14]#

llama-index-core [0.10.20]#

  • 新增用于可观测性的instrumentation模块 (#11831)
  • 允许为CitationQueryEngine传入LLM参数 (#11914)
  • 更新了keyval文档存储,允许在命名空间之外更改后缀 (#11873)
  • 为query_engine添加(部分)异步流式支持 #11949

llama-index-embeddings-dashscope [0.1.3]#

  • 修复查询文本的嵌入类型 (#11901)

llama-index-embeddings-premai [0.1.3]#

  • 支持premai嵌入 (#11954)

llama-index-networks [0.2.0]#

  • 新增了对网络检索器的支持 (#11800)

llama-index-llms-anthropic [0.1.6]#

  • 新增了对haiku的支持 (#11916)

llama-index-llms-mistralai [0.1.6]#

  • 修复了ChatMessage的导入错误 (#11902)

llama-index-llms-openai [0.1.11]#

  • 为AZURE_TURBO_MODELS添加了gpt-35-turbo-0125 (#11956)
  • 修复了logprobs中nontype的错误 (#11967)

llama-index-llms-premai [0.1.4]#

  • 支持premai llm (#11954)

llama-index-llms-solar [0.1.3]#

  • 支持将solar作为LLM类 (#11710)

llama-index-llms-vertex [0.1.5]#

  • 在vertex中添加对medlm的支持 (#11911)

llama-index-readers-goolge [0.1.6]#

  • 为Google Drive阅读器添加了README文件和查询字符串 (#11724)

llama-index-readers-file [0.1.11]#

  • 更新了ImageReader,添加了plain_text选项以触发pytesseract (#11913)

llama-index-readers-pathway [0.1.3]#

  • 使用纯请求以减少依赖项,简化代码 (#11924)

llama-index-retrievers-pathway [0.1.3]#

  • 使用纯请求以减少依赖项,简化代码 (#11924)

llama-index-storage-docstore-mongodb [0.1.3]#

  • 允许修改mongodb文档存储的后缀 (#11873)

llama-index-vector-stores-databricks [0.1.1]#

  • 支持将Databricks向量搜索作为向量存储 (#10754)

llama-index-vector-stores-opensearch [0.1.8]#

  • (重新)实现正确的删除功能 (#11959)

llama-index-vector-stores-postgres [0.1.4]#

  • 修复了IN过滤器和OR文本搜索的问题 (#11872, #11927)

[2024-03-12]#

llama-index-cli [0.1.9]#

  • 移除了chroma作为捆绑依赖项,以减少llama-index的依赖项

llama-index-core [0.10.19]#

  • OpenAI llm类中引入针对速率限制的重试机制 (#11867)
  • SQLDatabase中添加了SQL表结构的表注释 (#11774)
  • ChatResponse对象中添加了LogProb类型 (#11795)
  • 引入 LabelledSimpleDataset (#11805)
  • 修复了插入包含不可序列化对象的IndexNode的问题 (#11836)
  • 修复了在CondenseQuestionChatEngine中将响应写入历史记录时出现的流式聊天类型错误 (#11856)
  • 改进JSON查询引擎的后处理功能 (#11862)

llama-index-embeddings-cohere [0.1.4]#

  • 修复了异步参数错误 (#11822)

llama-index-embeddings-dashscope [0.1.2]#

  • 修复了pydantic导入问题 (#11765)

llama-index-graph-stores-neo4j [0.1.3]#

  • 验证连接性后正确关闭连接 (#11821)

llama-index-llms-cohere [0.1.3]#

  • 新增对 command-r 模型的支持 (#11852)

llama-index-llms-huggingface [0.1.4]#

  • 修复了带有特殊标记的流式解码问题 (#11807)

llama-index-llms-mistralai [0.1.5]#

  • 新增对最新和开源模型的支持 (#11792)

llama-index-tools-finance [0.1.1]#

  • 修复了传入股票新闻API get时的小错误 (#11772)

llama-index-vector-stores-chroma [0.1.6]#

  • 精简了chroma依赖项 (#11775)

llama-index-vector-stores-lancedb [0.1.3]#

  • 修复删除功能 (#11825)

llama-index-vector-stores-postgres [0.1.3]#

  • 支持嵌套元数据过滤器 (#11778)

[2024-03-07]#

llama-index-callbacks-deepeval [0.1.3]#

  • 更新回调处理器的导入路径 (#11754)

llama-index-core [0.10.18]#

  • 确保LoadAndSearchToolSpec加载文档对象 (#11733)
  • 修复了QueryFusionRetriever中无节点的问题 (#11759)
  • 允许在BatchEvalRunner中为不同评估器使用不同的运行时参数 (#11727)
  • 修复了fsspec + SimpleDirectoryReader的问题 (#11665)
  • 从指南评估器中移除asyncio.run()要求 (#11719)

llama-index-embeddings-voyageai [0.1.3]#

  • 更新voyage embeddings以使用正确的客户端 (#11721)

llama-index-indices-managed-vectara [0.1.3]#

  • 修复了非摘要模式下vectara查询引擎的问题 (#11668)

llama-index-llms-mymagic [0.1.5]#

  • 为JSON输出添加return_output选项,包含查询和响应(#11761)

llama-index-packs-code-hierarchy [0.1.0]#

  • 新增支持CodeHiearchyAgentPack,可实现代码库的智能体遍历功能 (#10671)

llama-index-packs-cohere-citation-chat [0.1.3]#

  • 新增了一个用于引用和与Cohere聊天的llama-pack (#11697)

llama-index-vector-stores-milvus [0.1.6]#

  • 防止在添加文档时强制调用flush() (#11734)

llama-index-vector-stores-opensearch [0.1.7]#

  • 元数据列名中的小拼写错误 (#11751)

llama-index-vector-stores-tidbvector [0.1.0]#

  • 初步支持TiDB向量存储 (#11635)

llama-index-vector-stores-weaviate [0.1.4]#

  • 针对元数据过滤器中int字段的小修复 (#11742)

[2024-03-06]#

新格式!将尝试按包报告变更。

llama-index-cli [0.1.8]#

  • 更新upgrade命令的映射关系 (#11699)

llama-index-core [0.10.17]#

  • QueryFusionRetriever添加relative_scoredist_based_score功能 (#11667)
  • 检查异步智能体队列中的none (#11669)
  • 允许为BaseSQLTableQueryEngine自定义优化模板 (#11378)
  • 更新llama-packs的映射关系 (#11699)
  • 修复了在KG索引中提取相关文本时的索引错误 (#11695)
  • 当没有节点时从合成器返回正确的响应类型 (#11701)
  • 在DocumentSummaryIndex中继承元数据到摘要 (#11671)
  • 在SQL查询引擎中继承回调管理器 (#11662)
  • 修复了智能体流式输出未写入聊天记录的问题 (#11675)
  • 修复了在使用智能体流式传输函数调用时,none增量存在的一个小错误 (#11713)

llama-index-multi-modal-llms-anthropic [0.1.2]#

  • 新增支持多模态模型 haikusonnet (#11656)

llama-index-packs-finchat [0.1.0]#

  • 新增了一个llama-pack,用于分层智能体+金融聊天 (#11387)

llama-index-readers-file [0.1.8]#

  • 新增支持检查NLTK文件是否已下载 (#11676)

llama-index-readers-json [0.1.4]#

  • 使用创建文档时传入的元数据 (#11626)

llama-index-vector-stores-astra-db [0.1.4]#

  • 更新警告消息中的措辞 (#11702)

llama-index-vector-stores-opensearch [0.1.7]#

  • 避免在代码中调用nest_asyncio.apply()以防止给用户造成混淆性错误(#11707)

llama-index-vector-stores-qdrant [0.1.4]#

  • 捕获RPC错误 (#11657)

[0.10.16] - 2024-03-05#

新功能#

  • 支持Anthropic的新模型 (#11623, #11612)
  • 更轻松地创建聊天提示 (#11583)
  • 新增了一个raptor检索器llama-pack (#11527)
  • 通过bedrock改进批量cohere嵌入 (#11572)
  • 新增了对Vertex AI嵌入的支持 (#11561)

错误修复 / 细节优化#

  • 确保异步嵌入生成中的顺序 (#11562)
  • 修复了CSV读取器中空元数据的问题 (#11563)
  • 可组合检索器的序列化修复 (#11617)
  • 修复了Milvus元数据过滤器支持 (#11566)
  • 修复了clickhouse向量存储中的pydantic导入问题 (#11631)
  • 修复了gemini/vertext-gemini的系统提示问题 (#11511)

[0.10.15] - 2024-03-01#

新功能#

  • 新增FeishuWikiReader (#11491)
  • 新增了videodb检索器集成 (#11463)
  • 为OpenSearch向量存储添加了异步支持 (#11513)
  • 新增LangFuse一键回调处理器 (#11324)

错误修复 / 细节优化#

  • 修复了异步聊天流中的死锁问题 (#11548)
  • 在SimpleDirectoryReader中改进了隐藏文件检查 (#11496)
  • 修复了使用SimpleDirectoryReader时文档元数据中的空值问题 (#11501)
  • 修复了jsonalyze查询引擎中sqlite工具的问题 (#11519)
  • 为ollama多模态LLM添加了基础URL和超时设置 (#11526)
  • 更新了查询融合检索器中的重复处理 (#11542)
  • 修复了kg索引结构更新中的错误 (#11475)

[0.10.14] - 2024-02-28#

新功能#

  • 发布了llama-index-networks (#11413)
  • Jina 重排序器 (#11291)
  • 新增了DuckDuckGo智能体搜索工具(#11386)
  • 用于chatml的辅助函数 (#10272)
  • 为智能体添加了brave搜索工具 (#11468)
  • 新增Friendli LLM集成 (#11384)
  • 仅针对chromadb的元数据查询 (#11328)

错误修复 / 细节优化#

  • 修复了合成器中继承llm回调的问题 (#11404)
  • 修复milvus中的删除错误 (#11315)
  • 修复了pinecone kwargs问题 (#11422)
  • Supabase 元数据过滤修复 (#11428)
  • 修复了Gemini嵌入中的API基础问题 (#11393)
  • 修复elasticsearch向量存储的await问题 (#11438)
  • vllm服务器CUDA修复 (#11442)
  • 修复了将LLM传递给上下文聊天引擎的问题 (#11444)
  • 为cohere嵌入设置输入类型 (#11288)
  • Azure AD令牌的默认值 (#10377)
  • 为react智能体重新添加了提示混合功能 (#10610)
  • 修复了gemini的系统角色问题 (#11481)
  • 修复了均值聚合池化返回numpy浮点值的问题 (#11458)
  • 改进了JSONQueryEngine的json路径解析功能 (#9097)

[0.10.13] - 2024-02-26#

新功能#

  • 为KodaRetriever添加了一个llama-pack,用于实时alpha调优 (#11311)
  • 新增对 mistral-large 的支持 (#11398)
  • 针对HuggingFace嵌入模型(如SFR-Embedding-Mistral)的末令牌池化模式 (#11373)
  • 为SimpleDirectoryReader添加了fsspec支持 (#11303)

错误修复 / 细节优化#

  • 修复了上下文窗口与提示助手的问题 (#11379)
  • 将OpenSearch向量存储迁移至BasePydanticVectorStore (#11400)
  • 修复了fireworks LLM中的函数调用问题 (#11363)
  • 使cohere嵌入类型更加自动化 (#11288)
  • 改进react智能体中的函数调用功能 (#11280)
  • 修复了MockLLM的导入问题 (#11376)

[0.10.12] - 2024-02-22#

新功能#

  • 新增了llama-index-postprocessor-colbert-rerank包 (#11057)
  • MyMagicAI LLM (#11263)
  • MariaTalk LLM (#10925)
  • 为GitHub阅读器添加重试功能 (#10980)
  • 新增了FireworksAI嵌入和LLM模块 (#10959)

错误修复 / 细节优化#

  • 修复了weaviate中的字符串格式化问题 (#11294)
  • 修复了语义分割器中的差一错误 (#11295)
  • 修复了download_llama_pack对多文件的支持问题 (#11272)
  • 从包中移除了BUILD文件 (#11267)
  • 放宽了所有包的Python版本要求 (#11267)
  • 修复了chromadb的参数问题 (#11104)

[0.10.11] - 2024-02-21#

错误修复 / 细节优化#

  • 修复了异步完成的多模态LLM (#11064)
  • 修复了llamaindex-cli导入的问题 (#11068)

[0.10.10] - 2024-02-20#

I'm still a bit wonky with our publishing process -- apologies. This is just a version bump to ensure the changes that were supposed to happen in 0.10.9 actually did get published. (AF)

[0.10.9] - 2024-02-20#

  • 添加llama-index-cli依赖项

[0.10.7] - 2024-02-19#

新功能#

  • 新增了Self-Discover llamapack (#10951)

错误修复 / 细节优化#

  • 修复了CICD中的代码检查问题 (#10945)
  • 修复了使用远程图存储的问题 (#10971)
  • 在NoText响应合成器中添加了缺失的LLM参数 (#10971)
  • 修复了rankgpt中的openai导入问题 (#10971)
  • 修复了在openai嵌入中将模型名称解析为字符串的问题 (#10971)
  • 句子窗口节点解析器中的差一错误 (#10971)

[0.10.6] - 2024-02-17#

首先,对于之前几个版本遗漏更新日志表示歉意。我们正在尝试为400多个软件包制定最佳流程。

在某个时间点,每个软件包都将拥有专门的更新日志。

但现在,让我们来看"master"版本的更新日志。

新功能#

  • 新增 NomicHFEmbedding (#10762)
  • 新增 MinioReader (#10744)

错误修复 / 细节优化#

  • 针对ClickHouse向量存储的多项修复 (#10799)
  • 修复neo4j向量存储中的索引名称 (#10749)
  • 修复了sagemaker嵌入的问题 (#10778)
  • 修复了在分割节点时的性能问题 (#10766)
  • 修复了重新排序器 + b25 中的非浮点数值 (#10930)
  • OpenAI-agent 应作为 openai 程序的依赖项 (#10930)
  • 为查询管道组件添加缺失的快捷导入 (#10930)
  • 修复NLTK和tiktoken未正确与核心捆绑的问题 (#10930)
  • 恢复 llama_index.core.__version__ (#10930)

[0.10.3] - 2024-02-13#

错误修复 / 细节优化#

  • 修复了在as_chat_engine中传入LLM的问题 (#10605)
  • 修复了anthropic的系统提示格式问题 (#10603)
  • 修复了elasticsearch向量存储中关于__version__的错误 (#10656)
  • 修复了openai pydantic程序的导入问题 (#10657)
  • 将客户端添加回opensearch向量存储导出 (#10660)
  • 修复了SimpleDirectoryReader未正确使用文件加载器的错误 (#10655)
  • 为RankGPT添加了延迟LLM初始化功能 (#10648)
  • 修复了 bedrock 嵌入 from_credentials 传递模型名称的问题 (#10640)
  • 恢复了TelegramReader的近期更改 (#10625)

[0.10.0, 0.10.1] - 2024-02-12#

重大变更#

[0.9.48] - 2024-02-12#

错误修复 / 细节优化#

  • 恢复BedrockEmbdding的弃用API (#10581)

[0.9.47] - 2024-02-11#

v0.10版本前的最后一个补丁!

新功能#

  • 向查询管道添加条件链接 (#10520)
  • 重构条件链接 + 添加到烹饪手册 (#10544)
  • 智能体 + 查询管道清理 (#10563)

错误修复 / 细节优化#

  • 添加休眠以修复聊天流中的延迟问题 (#10339)
  • OllamaMultiModal kwargs (#10541)
  • 更新数据摄取管道以处理空文档 (#10543)
  • 修复次要拼写错误 (#10516)
  • 修复elasticsearch异步检查 (#10549)
  • 文档/更新Slack演示Colab (#10534)
  • 为PGVectorStore添加使用IN操作符的功能 (#10547)
  • 修复智能体重置 (#10562)
  • 修复多个文档中MD重复的节点ID (#10564)

[0.9.46] - 2024-02-08#

新功能#

  • 更新嵌入模型的池化策略 (#10536)
  • 新增多模态视频RAG示例 (#10530)
  • 添加SECURITY.md (#10531)
  • 将智能体模块指南上移一级 (#10519)

错误修复 / 细节优化#

  • 修复了Deeplake问题 (#10529)
  • 为llamaindex添加Cohere部分 (#10523)
  • 修复 md 元素 (#10510)

[0.9.45.post1] - 2024-02-07#

新功能#

  • 升级了deeplake向量数据库以使用BasePydanticVectorStore (#10504)

错误修复 / 细节优化#

  • 修复不一致表格的MD解析器 (#10488)
  • 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError 错误 (#10491)

[0.9.45] - 2024-02-07#

新功能#

  • 重构:新增AgentRunner.from_llm方法 (#10452)
  • 支持为非聊天型LLMS自定义提示格式 (#10466)
  • 将cryptography从41.0.7升级至42.0.0 (#10467)
  • 为Colbert索引添加持久化和加载方法 (#10477)
  • 允许自定义智能体接收用户输入 (#10450)

错误修复 / 细节优化#

  • 从arize-phoenix全局回调处理器中移除exporter (#10465)
  • 修复Dashscope qwen llm的bug (#10471)
  • 修复:调用AWS Bedrock模型的问题 (#10443)
  • 将Azure AI搜索(原Azure认知搜索)向量存储集成更新至最新客户端SDK 11.4.0稳定版 + 更新Jupyter笔记本示例 (#10416)
  • 修复部分导入问题 (#10485)

[0.9.44] - 2024-02-05#

新功能#

  • ollama 视觉教程手册 (#10438)
  • 支持Gemini的"transport"配置 (#10457)
  • 添加Upstash Vector支持 (#10451)

[0.9.43] - 2024-02-03#

新功能#

  • 添加多模态ollama (#10434)

错误修复 / 细节优化#

  • 更新AstraDB的基础类 (#10435)

[0.9.42.post1] - 2024-02-02#

新功能#

  • 为Base nodes解析器添加异步支持 (#10418)

[0.9.42] - 2024-02-02#

新功能#

  • 添加对 gpt-3.5-turbo-0125 的支持 (#10412)
  • 为rag cli添加了create-llama支持 (#10405)

错误修复 / 细节优化#

  • 修复了lance-db向量存储中的一些小错误 (#10404)
  • 修复了ollama中的流式传输错误 (#10407)

[0.9.41] - 2024-02-01#

新功能#

  • Nomic Embedding (#10388)
  • Dashvector支持稀疏向量 (#10386)
  • 使用MarkDownParser进行表格问答与性能测试 (#10382)
  • 简易网页阅读器 (#10395)

错误修复 / 细节优化#

  • 修复KeywordExtractor中的完整节点内容 (#10398)

[0.9.40] - 2024-01-30#

新功能#

  • 改进并修复MarkdownElementNodeParser的bug (#10340)
  • 修复并改进对新模型的Perplexity支持 (#10319)
  • 确保将system_prompt传递给Perplexity LLM (#10326)
  • 扩展了BaseRetrievalEvaluator以包含可选的PostProcessor (#10321)

[0.9.39] - 2024-01-26#

新功能#

  • 支持新的GPT Turbo模型 (#10291)
  • 支持为Sentence Transformer微调提供多文档支持(#10297)

错误修复 / 细节优化#

  • 修复了Marvin导入问题 (#9864)

[0.9.38] - 2024-01-25#

新功能#

  • 支持新的OpenAI v3嵌入模型 (#10279)

错误修复 / 细节优化#

  • 对qdrant的稀疏嵌入进行额外检查 (#10275)

[0.9.37] - 2024-01-24#

新功能#

  • 新增了一个RAG命令行工具 (#10193)
  • 新增了一个textai向量存储 (#10240)
  • 新增了基于PostgreSQL的文档存储和索引存储功能 (#10233)
  • 在工具规格中指定工具规格 (#10263)

错误修复 / 细节优化#

  • 修复了ollama聊天中的序列化错误 (#10230)
  • SentenceTransformerRerank添加了缺失字段 (#10225)
  • 修复标题提取问题 (#10209, #10226)
  • nit: 在库/文档中更明显地展示可链式输出解析器 (#10262)
  • :bug: 摘要索引未继承排除的元数据键 (#10259)

[0.9.36] - 2024-01-23#

新功能#

  • 新增对 SageMakerEmbedding 的支持 (#10207)

错误修复 / 细节优化#

  • 修复OpenAI助手中重复的file_id问题 (#10223)
  • 修复程序的循环依赖问题 (#10222)
  • 对来自同一父文档的节点组运行TitleExtractor (#10209)
  • 改进vectara自动检索 (#10195)

[0.9.35] - 2024-01-22#

新功能#

  • beautifulsoup4 dependency to new optional extra html (#10156)
  • BaseNode.hash 设为 @property (#10163)
  • 中微子 (#10150)
  • 功能: JSONalyze查询引擎 (#10067)
  • [进行中] 添加自定义混合检索器笔记本 (#10164)
  • 为ChromaVectorStore类添加from_collection方法 (#10167)
  • CLI实验v0版本:提问 (#10168)
  • 使react智能体提示更易于编辑 (#10154)
  • 添加智能体查询管道 (#10180)

错误修复 / 细节优化#

  • 更新supabase vecs元数据过滤函数以支持多字段 (#10133)
  • 修复/改进LanceDB集成的代码问题 (#10144)
  • beautifulsoup4 可选依赖项 (#10156)
  • 修复 qdrant aquery 混合搜索 (#10159)
  • 将hash设为@property属性 (#10163)
  • 修复: 在安装llama-index[postgres]时的poetry错误 (#10171)
  • [文档] 更新jaguar向量存储文档 (#10179)
  • 移除未启动的finish_message的使用 (#10188)
  • Lantern向量存储文档更新 (#10192)
  • 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)

[0.9.34] - 2024-01-19#

新功能#

  • 新增了SageMakerEndpointLLM (#10140)
  • 新增了对Qdrant筛选器的支持 (#10136)

错误修复 / 细节优化#

  • 为Claude 2:1更新bedrock工具 (#10139)
  • Bug修复:修复了使用多进程时的死锁问题 (#10125)

[0.9.33] - 2024-01-17#

新功能#

  • 添加了RankGPT作为后处理器 (#10054)
  • 确保与新Pinecone客户端版本分叉的向后兼容性 (#9995)
  • 递归检索所有内容 (#10019)

错误修复 / 细节优化#

  • Bug修复:当在包含逗号的表格上使用markdown元素解析器时 (#9926)
  • 扩展自动检索笔记本 (#10065)
  • 更新了llm_generators中的属性名称 (#10070)
  • jaguar向量存储将text_tag添加到add()中的add_kwargs (#10057)

[0.9.32] - 2024-01-16#

新功能#

  • 新增了查询时行检索功能,并修复了结构化数据查询管道的一些小问题 (#10061)
  • 具备上下文感知的ReActive智能体 + 更新失效链接 (#10058)

[0.9.31] - 2024-01-15#

新功能#

  • 在查询管道中添加了选择器和路由器 (#9979)
  • 为qdrant向量存储添加了仅稀疏搜索功能 (#10041)
  • 新增了Tonic评估器 (#10000)
  • 为Firestore文档存储添加异步支持 (#9983)
  • 实现mongodb文档存储的put_all方法 (#10014)

错误修复 / 细节优化#

  • 根据max_string_length正确截断SQL查询结果 (#10015)
  • 修复了针对base64字符串的node.resolve_image() (#10026)
  • 修复了cohere系统提示角色 (#10020)
  • 在SentenceSplitter中移除冗余的token计数操作 (#10053)

[0.9.30] - 2024-01-11#

新功能#

  • 实现了一个使用嵌入进行语义分割的节点解析器 (#9988)
  • 新增对Anyscale嵌入模型的支持 (#9470)

错误修复 / 细节优化#

  • nit: 修复pandas获取提示的问题 (#10001)
  • 修复:令牌计数错误 (#9912)
  • 将jinja2从3.1.2升级到3.1.3 (#9997)
  • 修复 qdrant 混合搜索的边界情况 (#9993)
  • 错误修复:修复了Sphinx生成错误 (#9944)
  • 修复:CodeSplitterlanguage在赋值前被使用的问题 (#9987)
  • 修复章节“使用文本分割器…”中不一致的名称“text_parser”(#9980)
  • :bug: 修复批量大小 (#9982)
  • 为查询管道添加自动异步执行功能 (#9967)
  • :bug: 修复初始化问题 (#9977)
  • 使用SimpleDirectoryReader实现并行加载 (#9965)
  • 不要强制删除milvus中的索引 (#9974)

[0.9.29] - 2024-01-10#

新功能#

  • 新增对together.ai模型的支持 (#9962)
  • 新增了对批量Redis/Firestore键值存储的支持,异步Firestore键值存储 (#9827)
  • 并行化 IngestionPipeline.run() (#9920)
  • 新增查询管道组件:function、argpack、kwargpack (#9952)

错误修复 / 细节优化#

  • 更新了可选的langchain导入以避免警告 (#9964)
  • 如果嵌入空节点则抛出错误 (#9953)

[0.9.28] - 2024-01-09#

新功能#

  • 新增对Nvidia TenorRT LLM的支持 (#9842)
  • 允许在智能体构建期间设置tool_choice (#9924)
  • QueryPipeline添加了流式支持 (#9919)

错误修复 / 细节优化#

  • 为llamaindex阅读器设置一致的文档ID (#9923, #9916)
  • 移除HuggingFaceEmbedding中不必要的模型输入 (#9922)
  • tool_choice标志传播到下游API (#9901)
  • 向聊天记忆from_defaults()添加chat_store_key (#9928)

[0.9.27] - 2024-01-08#

新功能#

  • 添加查询管道 (#9908)
  • 功能:Azure 多模态支持(修复:#9471)(#9843)
  • 添加PostgreSQL Docker支持 (#9906)
  • Vectara自动检索器 (#9865)
  • 支持Redis聊天存储 (#9880)
  • 将更多类迁移至核心模块 (#9871)

错误修复 / 细节优化 / 小型功能#

  • tool_choice标志传播到下游API (#9901)
  • 从faiss查询中过滤掉负索引 (#9907)
  • 为qdrant负载添加了NE过滤器 (#9897)
  • 修复MyScale查询结果中错误的ID分配问题 (#9900)
  • Qdrant 文本匹配过滤器 (#9895)
  • 混合搜索的Fusion top k (#9894)
  • 修复 (#9867) 在异步调用期间使用sync_to_async避免阻塞 (#9869)
  • 将单个节点传入compute_scores会返回浮点数值 (#9866)
  • 移除多余的代码检查步骤 (#9878)
  • 添加vectara链接 (#9886)

[0.9.26] - 2024-01-05#

新功能#

  • 新增了BaseChatStoreSimpleChatStore抽象类,用于专用聊天记忆存储 (#9863)
  • 支持将自定义的tree_sitter解析器传入CodeSplitter (#9845)
  • 创建了一个BaseAutoRetriever基类,允许其他检索器扩展为自动模式 (#9846)
  • 新增支持Nvidia Triton LLM (#9488)
  • 新增了DeepEval一键可观测性功能 (#9801)

错误修复 / 细节优化#

  • 更新了指导集成以适配最新版本 (#9830)
  • 为文档/摄取流水线(#9847)实现了文本存储的可选功能
  • 为文档添加了缺失的sphinx-automodapi依赖项 (#9852)
  • 在Weaviate查询结果中返回实际的节点ID (#9854)
  • 为LangChainLLM添加了提示格式化功能 (#9844)

[0.9.25] - 2024-01-03#

新功能#

  • 为数据集生成添加了并发限制 (#9779)
  • 新增 deepeval 一键可观测性处理器 (#9801)
  • 新增了jaguar向量存储 (#9754)
  • 新增测试版多模态ReAct智能体 (#9807)

错误修复 / 细节优化#

  • 将OpenAI嵌入的默认批量大小更改为100 (#9805)
  • 为qdrant upserts正确使用批量大小 (#9814)
  • _verify_source_safety 使用抽象语法树(AST)而非正则表达式进行严格的安全检查 (#9789)
  • 在元素节点解析器中使用提供的LLM (#9776)
  • 更新了旧版向量数据库加载函数,使其更加健壮 (#9773)
  • 在AzureOpenAI中使用提供的http客户端 (#9772)

[0.9.24] - 2023-12-30#

新功能#

  • 为BEIR评估添加重新排序器 (#9743)
  • 添加Pathway集成。(#9719)
  • 自定义智能体实现 + 笔记本 (#9746)

错误修复 / 细节优化#

  • 修复vllm的beam搜索:添加缺失参数 (#9741)
  • 修复混合搜索的alpha参数 (#9742)
  • 修复令牌计数器 (#9744)
  • BM25 分词器小写转换 (#9745)

[0.9.23] - 2023-12-28#

错误修复 / 细节优化#

  • 文档:修复 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
  • 使LLM补全程序更加通用 (#9731)
  • 重构空集合的MM向量存储和索引 (#9717)
  • 添加IF语句以使用"Select"检查Schema (#9712)
  • 允许在download_moduledownload_llama_pack中跳过模块加载 (#9734)

[0.9.22] - 2023-12-26#

新功能#

  • SimpleDirectoryReader添加了.iter_data()方法 (#9658)
  • Ollama LLM添加了异步支持 (#9689)
  • 扩展对Pinecone过滤器中innot in操作符的支持 (#9683)

错误修复 / 细节优化#

  • 提升BM25Retriever检索性能 (#9675)
  • 改进qdrant混合搜索的错误处理 (#9707)
  • 修复了ChromaVectorStoreNone的处理问题 (#9697)
  • 修复了当Postgres模式不存在时的创建问题 (#9712)

[0.9.21] - 2023-12-23#

新功能#

  • 添加Zilliz云作为托管索引 (#9605)

错误修复 / 细节优化#

  • Bedrock客户端和LLM修复 (#9671, #9646)

[0.9.20] - 2023-12-21#

新功能#

  • 新增了insert_batch_size参数,用于限制创建索引时内存中保存的嵌入向量数量,默认值为2048 (#9630)
  • 改进自动检索功能 (#9647)
  • 可配置的节点ID生成函数 (#9574)
  • 引入了动作输入解析器 (#9575)
  • qdrant稀疏向量支持 (#9644)
  • 在数据摄取管道中引入了更新插入(upserts)和删除功能 (#9643)
  • 将Zilliz Cloud Pipeline添加为托管索引 (#9605)
  • 通过VertexAI添加对Google Gemini模型的支持 (#9624)
  • 支持在自动检索器上允许额外的元数据过滤器 (#9662)

错误修复 / 细节优化#

  • 修复LM格式强制笔记本中的pip安装命令 (#9648)
  • 修复更多链接和文档 (#9633)
  • 一些Bedrock的小问题和修复 (#9646)

[0.9.19] - 2023-12-20#

新功能#

  • 新增llama数据集 LabelledEvaluatorDatasetLabelledPairwiseEvaluatorDataset (#9531)

[0.9.18] - 2023-12-20#

新功能#

  • 多文档自动检索指南 (#9631)

错误修复 / 细节优化#

  • 修复(vllm): 使Vllm的'complete'方法行为与其他LLM类保持一致 (#9634)
  • 修复文档链接及其他文档问题 (#9632)

[0.9.17] - 2023-12-19#

新功能#

  • [示例] 添加用户反馈 (#9601)
  • 功能:为检索评估添加Cohere ReRank相关性指标 (#9495)

错误修复 / 细节优化#

  • 修复Gemini聊天模式 (#9599)
  • 修复了types-protobuf作为主要依赖项的问题 (#9595)
  • 为TextEmbeddingInference类添加可选的身份验证令牌(#9606)
  • 修复:获取最新工具调用时索引越界问题 (#9608)
  • 修复(azure_openai.py): 为子类重载添加缺失的返回语句 (#9598)
  • 修复ollama API调用中'formatted'和'format'参数的混淆问题 (#9594)

[0.9.16] - 2023-12-18#

新功能#

  • 智能体重构:分步执行 (#9584)
  • 添加OpenRouter,包含Mixtral演示 (#9464)
  • 为neo4j向量存储添加混合搜索功能 (#9530)
  • 为Google语义检索器添加对认证服务账户的支持 (#9545)

错误修复 / 细节优化#

  • 修复了LLM.system_prompt缺少default=None的问题 (#9504)
  • 修复 #9580:正确整合元数据 (#9582)
  • 集成:Gradient[Embeddings,LLM] - SDK升级 (#9528)
  • 将mixtral 8x7b模型添加到anyscale可用模型列表 (#9573)
  • Gemini 模型检查 (#9563)
  • 使用最新变更更新OpenAI微调 (#9564)
  • 修复/重新引入WHERE过滤器到PgVectorStore的稀疏查询中 (#9529)
  • 将Ollama API更新至ollama v0.1.16版本 (#9558)
  • ollama: 移除无效的 formatted 选项 (#9555)
  • 在optimum推送中添加设备 #9541 (#9554)
  • Gemini 嵌入模型的标题与内容差异 (#9547)
  • 修复将pydantic字段转换为浮点数的问题 (#9542)

[0.9.15] - 2023-12-13#

新功能#

  • 新增对Google Gemini文本+视觉模型的全面支持 (#9452)
  • 新增了Google语义检索器 (#9440)
  • 为OpenAI助手新增了from_existing()方法及异步支持 (#9367)

错误修复 / 细节优化#

  • 修复了huggingface LLM系统提示和消息提示 (#9463)
  • 修复了ollama额外kwargs的使用问题 (#9455)

[0.9.14] - 2023-12-11#

新功能#

  • 添加 MistralAI 大语言模型 (#9444)
  • 添加MistralAI嵌入功能 (#9441)
  • 添加 Ollama 嵌入类 (#9341)
  • 添加 FlagEmbeddingReranker 用于重新排序 (#9285)
  • 功能:PgVectorStore 支持高级元数据过滤 (#9377)
  • 为SQL查询引擎添加了sql_only参数以避免执行SQL (#9422)

错误修复 / 细节优化#

  • 功能/PgVector 支持自定义 hnsw.ef_search 和 ivfflat.probes (#9420)
  • 修正F1分数定义,更新版权年份 (#9424)
  • 将Replicate多模态模型中多个图像输入的报错改为警告 (#9360)
  • 移除了GPT授权的aiostream依赖项(#9403)
  • 修复使用Cohere模型的BedrockEmbedding结果 (#9396)
  • 在react智能体中仅捕获有效的工具名称 (#9412)
  • 修复了在Azure Cosmos中top_k被乘以10的问题 (#9438)
  • 修复了OpenSearch的混合搜索功能 (#9430)

重大变更#

  • 更新了基础LLM接口以匹配LLMPredictor (#9388)
  • 弃用 LLMPredictor (#9388)

[0.9.13] - 2023-12-06#

新功能#

  • LabelledRagDataset添加了批量预测支持 (#9332)

错误修复 / 细节优化#

  • 修复了faiss向量存储的保存和加载功能 (#9330)

[0.9.12] - 2023-12-05#

新功能#

  • 为openai/azure添加了一个选项reuse_client以帮助解决异步超时问题。设置为False可看到改进(#9301)
  • 新增支持 vLLM 大语言模型 (#9257)
  • 添加对 Python 3.12 的支持 (#9304)
  • 支持 claude-2.1 模型名称 (#9275)

错误修复 / 细节优化#

  • 修复bedrock cohere嵌入的嵌入格式 (#9265)
  • 在weaviate向量存储中使用delete_kwargs进行过滤 (#9300)
  • 修复了自动构建qdrant客户端的问题 (#9267)

[0.9.11] - 2023-12-03#

新功能#

  • 使reference_contextsLabelledRagDataset中变为可选参数 (#9266)
  • 重组download模块 (#9253)
  • 在数据摄取管道中新增了文档管理功能 (#9135)
  • LabelledRagDataset添加文档 (#9228)
  • LabelledRagDataset添加提交模板笔记本及其他文档更新 (#9273)

错误修复 / 细节优化#

  • 将numpy转换为列表以适配InstructorEmbedding (#9255)

[0.9.10] - 2023-11-30#

新功能#

  • 向量存储的高级元数据过滤器 (#9216)
  • Amazon Bedrock 嵌入新模型 (#9222)
  • 新增了PromptLayer回调集成功能 (#9190)
  • OpenAIAssistant复用文件ID (#9125)

重大变更/弃用#

  • 弃用 ExactMatchFilter (#9216)

[0.9.9] - 2023-11-29#

新功能#

  • LlamaDataset添加新的抽象功能 (#9165)
  • AstraDBVectorStore添加元数据过滤和MMR模式支持 (#9193)
  • 允许使用最新版本的scikit-learn (#9213)

重大变更/废弃功能#

  • 新增了LocalAI演示并开始弃用周期 (#9151)
  • 弃用evaluation模块中的QueryResponseDatasetDatasetGenerator (#9165)

错误修复 / 细节优化#

  • 修复download_utils.py中指向错误仓库的错误 (#9215)
  • AzureOpenAILLM中使用azure_deployment关键字参数 (#9174)
  • 修复AstraDBVectorStore集成的相似度分数返回问题 (#9193)

[0.9.8] - 2023-11-26#

新功能#

  • ObjectIndex添加支持持久化的persistpersist_from_dir方法 (#9064)
  • 新增异步元数据提取与管道支持 (#9121)
  • 重新添加了对节点中起始/结束字符索引的支持 (#9143)

错误修复 / 细节优化#

  • 修复全局服务上下文中某些kwargs未正确设置的问题 (#9137)
  • 针对memory.get()在系统/前缀消息过大时的小修复 (#9149)
  • 全局服务上下文的小幅修复 (#9137)

[0.9.7] - 2023-11-24#

新功能#

  • 添加对 PGVectoRsStore 的支持 (#9087)
  • 出于安全考虑强制要求requests>=2.31,同时取消对urllib3的固定版本限制 (#9108)

错误修复 / 细节优化#

  • 增加了上下文聊天引擎的默认内存令牌限制 (#9123)
  • CondensePlusContextChatEngine中添加了系统提示,该提示会被添加到context_prompt之前 (#9123)
  • 修复了CondensePlusContextChatEngine未正确使用聊天历史记录的bug (#9129)

[0.9.6] - 2023-11-22#

新功能#

  • 为openai LLMs添加了default_headers参数 (#9090)
  • 新增支持 download_llama_pack() 和 LlamaPack 集成
  • 新增支持 llamaindex-cli 命令行工具

错误修复/细节优化#

  • 为HuggingFace嵌入存储normalize作为布尔值 (#9089)

[0.9.5] - 2023-11-21#

错误修复 / 细节优化#

  • 修复了AzureOpenAI逻辑中推断流式数据块是否为工具调用的错误 (#9018)

新功能#

  • FastEmbed 嵌入提供程序 (#9043)
  • 更精确地测试OpenAILike (#9026)
  • 为每个检索器添加了回调管理器 (#8871)
  • 能够通过OpenAILike绕过max_tokens推理限制 (#9032)

错误修复 / 细节优化#

  • 修复了在估算分块大小时格式化聊天提示模板的bug (#9025)
  • 沙盒化的Pandas执行环境,修复CVE-2023-39662漏洞 (#8890)
  • 为Python 3.8恢复了mypy (#9031)
  • 放宽了dataclasses-json的版本范围限制, 并从pandas中移除了不必要的jinja2额外依赖项 (#9042)

[0.9.4] - 2023-11-19#

新功能#

  • 新增 CondensePlusContextChatEngine (#8949)

小功能/错误修复/细节优化#

  • 修复了OpenAIAgent在聊天历史中插入错误的bug (#9000)
  • 修复了LiteLLM和新版OpenAI客户端中的多个错误 (#9003)
  • 为perplexity llm添加了上下文窗口属性 (#9012)
  • node_parser属性添加回服务上下文 (#9013)
  • 重构MM检索器类 (#8998)
  • 修复SupabaseVectorIndexDemo中的TextNode实例化问题 (#8994)

[0.9.3] - 2023-11-17#

新功能#

  • 添加perplexity LLM集成 (#8734)

错误修复 / 细节优化#

  • 修复新版OpenAI客户端的令牌计数问题 (#8981)
  • 修复Postgres向量数据库中的一个小型pydantic错误 (#8962)
  • 修复了HierarchicalNodeParserchunk_overlapdoc_id的错误 (#8983)

[0.9.2] - 2023-11-16#

新功能#

  • 新增了多模态RAG评估的新笔记本指南 (#8945)
  • 新增了MultiModalRelevancyEvaluatorMultiModalFaithfulnessEvaluator (#8945)

[0.9.1] - 2023-11-15#

新功能#

  • 新增了Cohere Reranker的微调功能 (#8859)
  • AzureOpenAI大语言模型中支持自定义httpx客户端 (#8920)

错误修复 / 细节优化#

  • 修复了set_global_service_context未传播设置的问题 (#8940)
  • 修复了使用Google Palm嵌入构建索引的问题 (#8936)
  • 修复了在解析没有文本的ImageDocuments/Nodes时出现的小问题 (#8938)
  • 修复了Astra DB中大数据插入的问题 (#8937)
  • 优化智能体的QueryEngineTool (#8933)

[0.9.0] - 2023-11-15#

新功能 / 重大变更 / 废弃内容#

  • 新增用于数据摄取和转换的IngestionPipeline概念
  • 数据摄取和转换现在会自动缓存
  • 更新了节点解析/文本分割/元数据提取模块的接口
  • 更改默认的分词器,以及自定义分词器
  • PyPi 的打包/安装变更(减少冗余,新增安装选项)
  • 更可预测且一致的导入路径
  • 此外,测试版新增功能:用于处理文本和图像的多模态RAG模块!
  • 更多详情请访问: https://medium.com/@llama_index/719f03282945

[0.8.69.post1] - 2023-11-13#

错误修复 / 细节优化#

  • 将最大weaivate删除大小增加到10,000 (#8887)
  • 最终pickling残留修复 (#8902)

[0.8.69] - 2023-11-13#

错误修复 / 细节优化#

  • 修复了加载pickled对象时的bug (#8880)
  • 修复download_loadercustom_pathcustom_dir的问题 (#8865)

[0.8.68] - 2023-11-11#

新功能#

  • OpenAI 智能体助手 + 高级检索指南 (#8863)
  • 添加检索API基准测试 (#8850)
  • 新增JinaEmbedding类 (#8704)

错误修复 / 细节优化#

  • 改进了OpenAI的默认超时/重试机制 (#8819)
  • 为OpenAI重新添加密钥验证 (#8819)
  • 禁用自动下载LLM/嵌入模型功能,提供更友好的错误提示 (#8819)
  • 修复OpenAI助手工具创建+检索笔记本 (#8862)
  • 快速修复 复制多模态示例 (#8861)
  • 修复:路径被当作隐藏处理 (#8860)
  • 修复 Replicate 多模态 LLM + 笔记本 (#8854)
  • 功能/引用元数据 (#8722)
  • 修复SimpleMultiModalQueryEngine中ImageNode从NodeWithScore继承的类型问题 (#8844)

[0.8.67] - 2023-11-10#

新功能#

  • 高级多模态检索示例与文档 (#8822, #8823)

错误修复 / 细节优化#

  • 修复CitationQueryEngine的检索器节点后处理器 (#8818)
  • 修复大多数场景下的cannot pickle 'builtins.CoreBPE' object问题 (#8835)

[0.8.66] - 2023-11-09#

新功能#

  • OpenAIPydanticProgram中支持使用新版OpenAI客户端进行并行函数调用 (#8793)

错误修复 / 细节优化#

  • 修复了使用新版OpenAI客户端时pydantic程序中的bug (#8793)
  • 修复了不可列出的fsspec对象的问题 (#8795)

[0.8.65] - 2023-11-08#

新功能#

  • OpenAIAgent 并行函数调用 (#8738)

新功能#

  • 正确支持Hugging Face推荐模型 (#8784)

错误修复 / 细节优化#

  • 修复了embeddings.__all__的缺失导入问题 (#8779)

重大变更/废弃功能#

  • OpenAI(LLM)中使用tool_choice替代function_call,以及使用tool替代functions (#8738)
  • 弃用 to_openai_function 改用 to_openai_tool (#8738)

[0.8.64] - 2023-11-06#

新功能#

  • OpenAIAgent 并行函数调用 (#8738)
  • 添加AI助手智能体 (#8735)
  • OpenAI GPT4v 抽象层 (#8719)
  • Lantern向量存储添加支持 (#8714)

错误修复 / 细节优化#

  • 修复在elastic search向量存储中返回零节点的问题 (#8746)
  • SimpleDirectoryReader循环添加try/except异常处理,避免因单个文档导致程序崩溃 (#8744)
  • 修复异步嵌入中的deployment_name问题 (#8748)

[0.8.63] - 2023-11-05#

新功能#

  • 为最新的openai客户端包添加了原生同步和异步客户端支持 (#8712)
  • 新增对 AzureOpenAIEmbedding 的支持 (#8712)

错误修复 / 细节优化#

  • 修复了关于download_loader的"no host supplied"错误 (#8723)

重大变更#

  • OpenAIEmbedding 不再支持azure,已迁移至 AzureOpenAIEmbedding 类 (#8712)

[0.8.62.post1] - 2023-11-05#

重大变更#

  • 新增开发日模型 (#8713)
  • max_docs参数从构造函数移至SimpleMongoReaderlazy_load_data()方法 (#8686)

[0.8.61] - 2023-11-05#

新功能#

  • [实验性] 超参数调优器 (#8687)

错误修复 / 细节优化#

  • 修复CohereAIModelName类中的拼写错误:cohere light模型缺少v3版本 (#8684)
  • 更新 deeplake.py (#8683)

[0.8.60] - 2023-11-04#

新功能#

  • 提示优化指南 (#8659)
  • VoyageEmbedding (#8634)
  • YoutubeTranscriptReader添加多语言支持 (#8673)
  • 情感提示指南 (#8674)

错误修复 / 细节优化#

  • 将mistral 7b instruct v0.1添加到可用的anyscale模型中 (#8652)
  • 使pgvector的设置(扩展、模式和表创建)变为可选 (#8656)
  • 允许为Pinecone向量存储初始化stores_text变量 (#8633)
  • 修复: 支持Azure AD (#8667)
  • 修复多线程环境中的nltk错误 (#8668)
  • 修复cohereai笔记本中的Google Colab链接 (#8677)
  • 将max_tokens传递给Cohere llm (#8672)

[0.8.59] - 2023-11-02#

  • 深度记忆支持 (#8625)
  • 添加CohereAI嵌入功能 (#8650)
  • 添加Azure AD(Microsoft Entra ID)支持 (#8667)

[0.8.58] - 2023-11-02#

新功能#

  • 添加 lm-format-enforcer 集成以支持结构化输出 (#8601)
  • Google Vertex 支持 (#8626)

[0.8.57] - 2023-10-31#

新功能#

  • 添加 VoyageAIEmbedding 集成 (#8634)
  • 新增微调评估器笔记本 (#8596)
  • 添加 SingleStoreDB 集成 (#7991)
  • 添加对ChromaDB PersistentClient的支持 (#8582)
  • 添加对DataStax Astra DB的支持 (#8609)

错误修复 / 细节优化#

  • 更新Weaviate中的dataType (#8608)
  • 在混合检索器模式的知识图谱索引中,
  • 当"未找到关联关系"时返回通过关键词搜索找到的节点
  • 修复聊天引擎中的上下文长度超出错误 (#8530)
  • 从知识图谱(KG)中检索所有三元组的实际内容 (#8579)
  • KnowledgeGraphIndex的混合检索模式中,当嵌入无法找到关系时,返回关键词检索找到的节点 (#8575)
  • 优化检索工具的内容并修复小错误 (#8588)

[0.8.56] - 2023-10-30#

新功能#

  • 添加Amazon BedrockEmbedding (#8550)
  • HuggingFaceEmbedding聚焦于Pooling枚举的池化操作 (#8467)
  • 添加对IBM WatsonX LLM的支持 (#8587)

错误修复 / 细节优化#

  • [Bug] 修复 Clarifai 类 (#8529)
  • 修复Bedrock LLM的重试机制 (#8528)
  • 修复:VectorStore的QueryResult总是将保存的Node作为TextNode返回 (#8521)
  • 为SimpleDirectoryReader添加了默认的file_metadata以获取许多后处理器使用的基本元数据 (#8486)
  • 处理chromadb中值为None的元数据 (#8584)

[0.8.55] - 2023-10-29#

新功能#

  • 允许提示信息通过function_mappings接收函数参数 (#8548)
  • 添加高级提示 + "RAG的提示工程"笔记本 (#8555)
  • 利用Replicate API来服务LLaVa模型 (#8539)

错误修复 / 细节优化#

  • 更新拉取请求模板以包含Google Colab支持 (#8525)

[0.8.54] - 2023-10-28#

新功能#

  • 展示如何在结构化输出上微调llama2的笔记本 (#8540)
  • 新增了GradientAIFineTuningHandler
  • 在ServiceContext中添加了pydantic_program_mode
  • 使用LlamaIndex初始化多模态检索 (#8507)

错误修复 / 细节优化#

  • ChatEngine使用模式的.md文档中添加缺失的导入 (#8518)
  • :bug: 修复了异步添加问题 (#8531)
  • 修复:在usage_pa...中添加所需的CondenseQuestionChatEngine导入 (#8518)
  • 为LongLLMLingua.ipynb添加导入LongLLMLinguaPostprocessor (#8519)

[0.8.53] - 2023-10-27#

新功能#

  • 文档重构 (#8500) 对文档结构进行了全面调整。主要变更包括
  • 新增了一个重要的"理解"章节
  • 新增了一个重要的"优化"章节
  • 全面更新的入门内容
  • 对模块指南进行分类并移至单独章节

[0.8.52] - 2023-10-26#

新功能#

  • 添加longllmlingua (#8485)
  • 为笔记本添加Google Colab支持 (#7560)

错误修复 / 细节优化#

  • 通过cassio.init适配Cassandra VectorStore构造函数的数据库连接 (#8255)
  • 允许在托管索引中配置服务上下文和存储上下文 (#8487)

[0.8.51.post1] - 2023-10-25#

新功能#

  • 为特斯拉10k RAG添加Llava多模态问答示例 (#8271)
  • 修复React聊天智能体流式传输未按预期工作的错误 (#8459)

错误修复 / 细节优化#

  • 补丁:为路由器查询引擎的响应元数据添加选定结果,修复错误 (#8483)
  • 添加Jina AI嵌入笔记本 + 修复HuggingFace嵌入问题 (#8478)
  • 添加 is_chat_model 以进行复制 (#8469)
  • toml-sort重新添加回pre-commit (#8267)
  • 为本地test_s3_kvstore添加了LocationConstraint (#8263)

[0.8.50] - 2023-10-24#

新功能#

  • 在不同模块(查询引擎、合成器等)中公开提示 (#8275)

[0.8.49] - 2023-10-23#

新功能#

  • 新增LLM集成
  • 支持通过huggingface_hub[inference]使用Hugging Face推理API的conversational(对话)、text_generation(文本生成)和feature_extraction(特征提取)端点 (#8098)
  • 添加Amazon Bedrock LLMs (#8223)
  • 添加AI21 Labs LLMs (#8233)
  • 为兼容OpenAI的API服务器添加OpenAILike LLM类 (#7973)
  • 新增/更新的向量存储集成
  • 添加DashVector (#7772)
  • 添加腾讯向量数据库 (#8173)
  • 为PGVectorStore添加自定义Postgres模式的选项,而不仅限于公共模式 (#8080)
  • 添加Gradient微调引擎 (#8208)
  • 文档(常见问题): 常见问题解答 (#8249)

错误修复 / 细节优化#

  • 修复ReActAgent.stream_chat中的不一致问题 (#8147)
  • 弃用GuardrailsOutputParser中的部分函数 (#8016)
  • 简化依赖项 (#8236)
  • 修复了LiteLLM的错误 (#7885)
  • 更新 Predibase LLM (#8211)

[0.8.48] - 2023-10-20#

新功能#

  • 为MyScale向量存储添加DELETE功能 (#8159)
  • 添加SQL检索器 (#8197)
  • 添加语义内核文档格式 (#8226)
  • 优化MyScale混合搜索并添加MyScale向量存储的DELETE功能 (#8159)

错误修复 / 细节优化#

  • 修复了ReActAgent.from_tools()中的额外kwargs参数 (#8206)
  • 修复了提示模板中缺失的空格问题 (#8190)
  • 移除异常情况下自动下载llama2-13B的功能 (#8225)

[0.8.47] - 2023-10-19#

新功能#

  • 为文本转SQL添加响应合成功能 (#8196)
  • 新增支持 LLMRailsEmbedding (#8169)
  • 使用PyTorch推断MPS设备 (#8195)
  • 合并查询/文本前置 (#8189)

[0.8.46] - 2023-10-18#

新功能#

  • 添加微调路由支持 + 嵌入选择器 (#8174)
  • 添加更多文档转换器 (#8156)

错误修复 / 细节优化#

  • 为HuggingFace嵌入添加归一化处理 (#8145)
  • 优化MyScale混合搜索 (#8159)
  • 修复了提示中重复的FORMAT_STR问题 (#8171)
  • 新增:支持为PandasQueryEngine设置输出参数{'max_colwidth': xx} (#8110)
  • 修复了cohere llm中一个参数的描述问题 (#8163)
  • 修复Firestore客户端信息 (#8166)

[0.8.45] - 2023-10-13#

新功能#

  • 新增了对微调交叉编码器的支持 (#7705)
  • 新增了QueryFusionRetriever用于合并多个检索器+查询增强功能(#8100)
  • pre-commit中添加了nb-clean以减少PR差异(#8108)
  • 支持 TextEmbeddingInference 嵌入 (#8122)

错误修复 / 细节优化#

  • 改进了BM25Retriever接口以支持接收BaseNode对象 (#8096)
  • 修复了BM25Retriever分词器未按预期工作的错误 (#8096)
  • 在Python 3.8中使mypy检查通过 (#8107)
  • ReActAgent 添加缺失的 super().__init__ 调用 (#8125)

[0.8.44] - 2023-10-12#

新功能#

  • 添加pgvector SQL查询引擎 (#8087)
  • 新增HoneyHive一键可观测性功能 (#7944)
  • 添加对SQLAlchemy V1和V2的支持 (#8060)

[0.8.43.post1] - 2023-10-11#

新功能#

  • codespell 迁移至 pre-commit (#8040)
  • 新增了prettier用于自动格式化除.py以外的扩展文件 (#8072)

错误修复 / 细节优化#

  • 修复了HuggingFaceLLM中遗漏的f字符串 (#8075)
  • 放宽对numpy/pandas的要求

[0.8.43] - 2023-10-10#

新功能#

  • 新增支持 GradientEmbedding 嵌入模型 (#8050)

错误修复 / 细节优化#

  • HuggingFaceLLM添加了messages_to_prompt参数 (#8054)
  • 改进开源模型的选择和SQL解析功能 (#8054)
  • 修复了智能体为工具生成过多kwargs参数的bug (#8054)
  • 改进了选择和问题生成的提示与调试功能 (#8056)

[0.8.42] - 2023-10-10#

新功能#

  • LocalAI 更直观的模块级变量命名 (#8028)
  • 为Markdown文档启用codespell (#7972)
  • 添加非结构化表格元素节点解析器 (#8036)
  • 新增:为Qdrant向量存储添加异步upsert功能 (#7968)
  • 添加cohere llm (#8023)

错误修复 / 细节优化#

  • 解析React智能体回答中的多行输出 (#8029)
  • 为关键字as_retriever调用添加正确命名的kwargs参数 (#8011)
  • 更新对RAGAS LlamaIndex集成的引用 (#8035)
  • Vectara 错误修复 (#8032)
  • 修复:ChromaVectorStore 可能尝试添加超过 chromadb 批处理限制的数据 (#8019)
  • 修复Mbox阅读器中的get_content方法 (#8012)
  • 在WeaviateVectorStore中应用kwarg过滤器 (#8017)
  • 避免出现除零错误 (#8027)
  • LocalAI 直观的模块级变量命名 (#8028)
  • zep/fix: 导入与类型定义 (#8030)
  • 重构:使用 str.join (#8020)
  • 使用适当的元数据字符串进行节点解析 (#7987)

[0.8.41] - 2023-10-07#

新功能#

  • You.com 检索器 (#8024)
  • 通过metadata_names参数将字段从mongodb提取到元数据中 (#8001)
  • 简化了LocalAI.__init__,同时保持相同的行为 (#7982)

错误修复 / 细节优化#

  • 使用最长的元数据字符串进行元数据感知的文本分割 (#7987)
  • 处理mongodb读取器中的字符串列表 (#8002)
  • 移除OpenAI.class_type,因为它是无效代码 (#7983)
  • 修复 HuggingFaceLLM.device_map 的类型提示 (#7989)

[0.8.40] - 2023-10-05#

新功能#

  • 新增对 Clarifai LLM 的支持 (#7967)
  • 添加对函数微调的支持 (#7971)

重大变更#

  • 更新文档摘要索引 (#7815)
  • 将默认检索模式更改为嵌入
  • 默认在索引时将摘要嵌入向量存储(而不是实时计算嵌入)
  • 支持在llm检索器中配置top k参数

[0.8.39] - 2023-10-03#

新功能#

  • 为查询引擎添加了对pydantic对象输出的支持 (#7893)
  • ClarifaiEmbedding 类已添加以支持嵌入功能 (#7940)
  • Markdown节点解析器、平面文件阅读器和简单文件节点解析器 (#7863)
  • 新增支持mongdb atlas的$vectorSearch功能 (#7866)

错误修复 / 细节优化#

  • 新增支持在discord阅读器中使用消息元数据 (#7906)
  • 修复 LocalAI 的聊天功能在没有 max_tokens 参数时的问题 (#7942)
  • 添加了codespell用于自动化检查(#7941)
  • ruff 现代化改造和自动修复 (#7889)
  • 实现自定义的SQLDatabase类 (#7929)
  • 更新LlamaCPP的context_params属性 (#7945)
  • 修复重复嵌入问题 (#7949)
  • 添加codespell工具用于强制规范拼写 (#7941)
  • 支持在venv环境下本地使用mypy (#7952)
  • Vectara - 小幅更新 (#7954)
  • 避免在CI中重新安装pydantic (#7956)
  • 将tree_sitter_languages移动到data_requirements.txt中 (#7955)
  • PGVectorStore添加cache_okay参数以帮助抑制TSVector警告 (#7950)

[0.8.38] - 2023-10-02#

新功能#

  • 更新了KeywordNodePostprocessor以使用spacy支持更多语言 (#7894)
  • LocalAI 支持全局或按查询使用 /chat/completions/completions (#7921)
  • 新增了关于使用REBEL + 维基百科过滤构建知识图谱的笔记本 (#7919)
  • 新增支持 ElasticsearchEmbedding (#7914)

[0.8.37] - 2023-09-30#

新功能#

  • 支持 LocalAI 大语言模型 (#7913)
  • 验证防止配置错误的块大小 (#7917)

错误修复 / 细节优化#

  • 简化自然语言SQL响应到SQL解析,扩展了自然语言SQL提示 (#7868)
  • 提升向量数据库集成的向量存储检索速度 (#7876)
  • 新增替换{{和}}的功能,并修复了JSON解析递归问题 (#7888)
  • 优化后的JSON解码错误 (#7891)
  • 优化了LLM未提供SQL时的SQL错误提示 (#7900)
  • 优化了HuggingFaceLLMImportError错误提示 (#7904)
  • 评估修复:修复数据集响应生成,为评估器添加评分 (#7915)

[0.8.36] - 2023-09-27#

新功能#

  • 新增"从零开始构建RAG笔记本" - 开源/本地 (#7864)

错误修复 / 细节优化#

  • 修复elasticsearch混合评分问题 (#7852)
  • 将Langchain依赖项get_color_mappingprint_text替换为内部实现 (#7845)
  • 修复与azure的异步流式传输问题 (#7856)
  • 避免在子问题生成器中出现NotImplementedError() (#7855)
  • 修复predibase初始化问题 (#7859)
  • 提升了最低langchain版本要求,并将提示导入从langchain更改为llamaindex (#7862)

[0.8.35] - 2023-09-27#

错误修复 / 细节优化#

  • 修复递归检索器中文本节点丢失的问题 (#7840)
  • 当callback_manager为None时,在智能体与其llm之间共享callback_manager (#7844)
  • 修复pandas查询引擎 (#7847)

[0.8.34] - 2023-09-26#

新功能#

  • 新增了对Konko LLM的支持 (#7775)
  • 添加上下文前后句子 (#7821)
  • 通过OpenAI库实现EverlyAI与LlamaIndex的集成 (#7820)
  • 将Arize Phoenix追踪器添加到全局处理器 (#7835)

错误修复 / 细节优化#

  • 标准化从ElasticSearch向量存储返回的分数 (#7792)
  • 修复了refresh_ref_docs()函数中操作顺序的错误(#7664)
  • 延迟 PGVectorStore 的 postgresql 连接直到实际需要时 (#7793)
  • 修复SimpleVectorStore删除方法中与元数据过滤器相关的KeyError错误 (#7829)
  • 修复SimpleVectorStore删除方法中与元数据过滤器相关的KeyError错误 (#7831)
  • 解决PyYAML导入错误 (#7784)
  • ElasticsearchStore: 更新User-Agent + 添加示例docker compose (#7832)
  • StorageContext.persist 支持 Path (#7783)
  • 更新ollama.py (#7839)
  • 修复 self._session_pool 的bug (#7834)

[0.8.33] - 2023-09-25#

新功能#

  • 添加成对评估器 + 基准测试自动合并检索器 (#7810)

错误修复 / 细节优化#

  • 对嵌入类进行了小幅清理 (#7813)
  • OpenAIEmbedding的杂项更新 (#7811)

[0.8.32] - 2023-09-24#

新功能#

  • 新增对HuggingFaceEmbeddingInstructorEmbeddingOptimumEmbedding的原生支持 (#7795)
  • 为MyScale向量存储添加了元数据过滤和混合搜索功能 (#7780)
  • 允许为Milvus自定义文本字段名称 (#7790)
  • VectorIndexAutoRetriever添加对vector_store_query_mode的支持 (#7797)

错误修复 / 细节优化#

  • 更新 LanceDBVectorStore 以处理分数和距离 (#7754)
  • 将LLM传递给CondenseQuestionChatEngine中的memory_cls (#7785)

[0.8.31] - 2023-09-22#

新功能#

  • 添加pydantic元数据提取器 (#7778)
  • 允许用户在Azure认知向量存储中设置嵌入维度 (#7734)
  • 添加语义相似度评估器 (#7770)

错误修复 / 细节优化#

  • 📝文档: 更新聊天机器人教程和Notebook (#7767)
  • 修复了空节点导致的响应合成器问题 (#7773)
  • 修复自动向量检索器中的NotImplementedError (#7764)
  • 修复了"KnowledgeGraphQueryEngine"中多个kwargs值的错误 (#7763)
  • 允许设置Azure认知搜索的维度 (#7734)
  • 将服务上下文传递给索引以生成数据集 (#7748)
  • 修复选择器模板的输出解析器 (#7774)
  • 更新 Chatbot_SEC.ipynb (#7711)
  • 针对Cassandra测试的linter/类型检查器友好性改进 (#7771)
  • 暴露 PgVectorStore 的调试选项 (#7776)
  • llms/openai: 通过考虑 prompt_filter_results 字段修复 Azure OpenAI (#7755)

[0.8.30] - 2023-09-21#

新功能#

  • 添加对 gpt-3.5-turbo-instruct 的支持 (#7729)
  • 添加对 TimescaleVectorStore 的支持 (#7727)
  • 新增 LongContextReorder 功能以解决中间丢失问题 (#7719)
  • 添加检索评估 (#7738)

错误修复 / 细节优化#

  • 为异步上下文聊天引擎添加了节点后处理器 (#7731)
  • 为Postgres TSV列添加了唯一索引名称 (#7741)

[0.8.29.post1] - 2023-09-18#

错误修复 / 细节优化#

  • 修复嵌入功能的langchain导入错误 (#7714)

[0.8.29] - 2023-09-18#

新功能#

  • 为基础简单向量存储添加了元数据过滤功能 (#7564)
  • 添加低级路由器指南 (#7708)
  • 新增CustomQueryEngine类 (#7703)

错误修复 / 细节优化#

  • 修复lite-llm中的上下文窗口元数据 (#7696)

[0.8.28] - 2023-09-16#

新功能#

  • 添加CorrectnessEvaluator (#7661)
  • 新增对 Ollama 大语言模型的支持 (#7635)
  • 新增 HWPReader (#7672)
  • 简化Portkey LLM接口 (#7669)
  • ElasticsearchStore向量存储添加了异步操作支持 (#7613)
  • 新增支持 LiteLLM (#7600)
  • 新增批量评估运行器 (#7692)

错误修复 / 细节优化#

  • 避免异步LangChain嵌入出现NotImplementedError错误 (#7668)
  • 提升了LLM选择器的可靠性 (#7678)
  • 修复了输出解析器和完成模型的query_wrapper_promptsystem_prompt (#7678)
  • 修复了引用查询引擎中的节点属性继承问题 (#7675)

重大变更#

  • 重构并更新BaseEvaluator接口以保持更高一致性(#7661)
  • 使用evaluate函数处理通用输入
  • 使用evaluate_response函数处理来自llama index查询引擎的Response对象
  • 使用更明确的命名更新现有评估器
  • ResponseEvaluator -> FaithfulnessEvaluator
  • QueryResponseEvaluator -> RelevancyEvaluator
  • 为了向后兼容,旧名称保留为类别名

[0.8.27] - 2023-09-14#

新功能#

  • 添加低级教程部分 (#7673)

错误修复 / 细节优化#

  • 默认的delta应该是一个字典 (#7665)
  • 改进LLMPredictor上的查询包装逻辑 (#7667)

[0.8.26] - 2023-09-12#

新功能#

  • 添加非线性嵌入适配器 (#7658)
  • 在知识微调笔记本中添加"微调 + RAG"评估功能 (#7643)

错误修复 / 细节优化#

  • 修复了句子分割器的块重叠问题 (#7590)

[0.8.25] - 2023-09-12#

新功能#

  • 新增了AGENT_STEP回调事件类型 (#7652)

错误修复 / 细节优化#

  • 允许simple模式与as_chat_engine()配合使用 (#7637)
  • 修复了azure流式处理中的索引错误 (#7646)
  • 从llama-cpp中移除了pdb (#7651)

[0.8.24] - 2023-09-11#

新功能#

  • 指南:通过微调来记忆知识 (#7626)
  • 新增了为评估模块自定义提示模板的功能 (#7626)

错误修复#

  • 正确检测llama-cpp-python版本以加载默认的GGML或GGUF格式的llama2-chat-13b模型(#7616)
  • 正确传入summary_template参数到RetrieverQueryEngine.from_args()方法中 (#7621)
  • 修复wandb回调中的span类型 (#7631)

[0.8.23] - 2023-09-09#

错误修复#

  • 确保在llama2的首次聊天提示中包含上下文和系统提示(#7597)
  • 在优化过程中避免出现负分块大小错误 (#7607)
  • 修复分层节点解析器中针对小文档的关系问题 (#7611)
  • 更新Anyscale端点集成,支持完整的流式传输和异步功能 (#7602)
  • OpenAIAzureOpenAIAnyscale中更好地支持将凭据作为LLM构造函数参数传递 (#7602)

重大变更#

  • 更新Milvus向量存储以支持过滤器和动态模式 (#7286)
  • 查看更新后的笔记本了解使用方法
  • 将NLTK添加为核心依赖项以支持默认句子分割器 (#7606)

[0.8.22] - 2023-09-07#

新功能#

  • 新增对ElasticSearch向量存储的支持 (#7543)

错误修复 / 细节优化#

  • 修复了ElasticSearchReader中的小_index错误 (#7570)
  • 修复了全局服务上下文中提示助手设置的错误 (#7576)
  • 再次移除OpenAI嵌入中的换行符 (#7588)
  • 修复了在服务上下文中设置query_wrapper_prompt的小错误 (#7585)

重大变更/废弃的API改动#

  • 清理向量存储接口以使用BaseNode而非NodeWithEmbedding
  • 对于大多数用户来说,这是一个无操作变更
  • 对于直接操作VectorStore抽象层并手动构建NodeWithEmbedding对象的用户,这是一个较小的破坏性变更。请直接使用带embedding设置的TextNode来替代NodeWithEmbedding

[0.8.21] - 2023-09-06#

新功能#

  • 添加嵌入适配器微调引擎 + 指南 (#7565)
  • 新增支持Azure Cognitive Search向量存储 (#7469)
  • 支持在supabase中删除 (#6951)
  • 新增对Espilla向量存储的支持 (#7539)
  • 新增对AnyScale LLM的支持 (#7497)

错误修复 / 细节优化#

  • 默认使用用户可配置的top-k参数在VectorIndexAutoRetriever中 (#7556)
  • 捕获结构化响应的验证错误 (#7523)
  • 修复流式优化模板 (#7561)

[0.8.20] - 2023-09-04#

新功能#

  • 新增了Portkey LLM集成 (#7508)
  • 支持postgres/pgvector混合搜索 (#7501)
  • 升级递归检索器节点参考笔记本 (#7537)

[0.8.19] - 2023-09-03#

新功能#

  • 将列表索引替换为摘要索引 (#7478)
  • 将列表索引重命名为摘要索引 第2部分 (#7531)

[0.8.18] - 2023-09-03#

新功能#

  • 添加智能体微调指南 (#7526)

[0.8.17] - 2023-09-02#

新功能#

  • 使(部分)加载器可序列化 (#7498)
  • 为递归检索添加节点引用 (#7522)

错误修复 / 细节优化#

  • 在分割过程中当元数据过大时抛出信息性错误 (#7513)
  • 在简单节点解析器中允许使用langchain分割器 (#7517)

[0.8.16] - 2023-09-01#

错误修复 / 细节优化#

  • 修复文档中指向Marvin笔记本的链接 (#7504)
  • 确保在SimpleWebPageReader中元数据不为None (#7499)
  • 修复了KGIndex可视化问题 (#7493)
  • 改进了知识图谱索引中的空响应处理 (#7493)

[0.8.15] - 2023-08-31#

新功能#

  • 新增支持MarvinEntityExtractor元数据提取器 (#7438)
  • 为SimpleWebPageReader添加了url_metadata回调功能 (#7445)
  • 扩展了回调日志记录事件 (#7472)

错误修复 / 细节优化#

  • 仅针对OpenAI中的文本001嵌入模型将换行符转换为空格 (#7484)
  • 修复非Nebula索引的KnowledgeGraphRagRetriever (#7488)
  • 支持在PGVectorStore中定义嵌入维度 (#7491)
  • 大幅提升了基础向量存储的相似度计算速度 (#7494)

[0.8.14] - 2023-08-30#

新功能#

  • 功能:在Graph RAG中支持非知识图谱的异构图 (#7459)
  • RAG指南 (#7480)

错误修复 / 细节优化#

  • 改进OpenAI微调模型的解析功能 (#7474)
  • 进行一些代码去重处理 (#7468)
  • 支持在HF LLMs中为query_wrapper_prompt同时使用字符串和模板 (#7473)

[0.8.13] - 2023-08-29#

新功能#

  • 添加嵌入微调 (#7452)
  • 新增对RunGPT LLM的支持 (#7401)
  • 与DeepEval的集成指南和笔记本 (#7425)
  • 新增了VectorIndexVectaraRetriever作为托管索引 (#7440)
  • 新增支持to_tool_list以检测和使用异步函数 (#7282)

[0.8.12] - 2023-08-28#

新功能#

  • 添加OpenAI微调类 (#7442)
  • Service Context 转字典/从字典转回 (#7395)
  • 新增微调指南 (#7429)

小功能/细节/错误修复#

  • 添加如何运行FalkorDB docker的示例 (#7441)
  • 更新root.md以使用get_response_synthesizer预期类型。(#7437)
  • 修复MonsterAPI Pydantic版本v2/v1支持问题。文档更新 (#7432)

[0.8.11.post3] - 2023-08-27#

新功能#

  • AutoMergingRetriever (#7420)

[0.8.10.post1] - 2023-08-25#

新功能#

  • 新增支持通过MonsterAPI使用MonsterLLM (#7343)
  • 支持NebulaGraphStore中的注释字段和int类型VID (#7402)
  • 为DynamoDB添加了可配置的端点 (#6777)
  • 为Refine响应合成器添加结构化答案过滤功能 (#7317)

错误修复 / 细节优化#

  • 为json文件阅读器使用utf-8编码 (#7390)
  • 修复实体提取器初始化问题 (#7407)

[0.8.9] - 2023-08-24#

新功能#

  • 新增对FalkorDB/RedisGraph图存储的支持 (#7346)
  • 新增了定向子图RAG (#7378)
  • 新增支持 BM25Retriever (#7342)

错误修复 / 细节优化#

  • Xinference LLM添加了max_tokens参数 (#7372)
  • 支持在多线程应用中创建缓存目录 (#7365)
  • 确保temperature对于openai是一个浮点数 (#7382)
  • 在知识图谱检索器中移除重复主题 (#7378)
  • 添加了对pydantic v1和v2的支持,以便其他应用程序能够继续推进 (#7394)

重大变更/废弃的API更改#

  • 重构提示模板 (#7319)
  • 使用 BasePromptTemplate 进行通用类型处理
  • 使用 PromptTemplateChatPromptTemplateSelectorPromptTemplate 作为核心实现
  • 使用LangchainPromptTemplate以实现与Langchain提示模板的兼容性
  • 在代码库中,完全用通用的BasePromptTemplate替换特定的提示类(例如SummaryPrompt)进行类型标注。
  • 为了向后兼容,保留Prompt作为PromptTemplate的别名。
  • 重大变更:移除对 Prompt.from_langchain_prompt 的支持,请改用 template=LangchainPromptTemplate(lc_template)

[0.8.8] - 2023-08-23#

新功能#

  • OpenAIFineTuningHandler 用于收集LLM输入/输出以进行OpenAI微调 (#7367)

错误修复 / 细节优化#

  • 添加对 claude-instant-1.2 的支持 (#7369)

[0.8.7] - 2023-08-22#

新功能#

  • 支持微调的OpenAI模型 (#7364)
  • 新增对Cassandra向量存储的支持 (#6784)
  • 支持工具函数中的pydantic字段 (#7348)

错误修复 / 细节优化#

  • 修复OpenAIAgent中强制函数调用导致的无限循环问题 (#7363)

[0.8.6] - 2023-08-22#

新功能#

  • 自动与递归检索器笔记本 (#7353)
  • BagelDB的读取器和向量存储,附带示例笔记本 (#7311)

错误修复 / 细节优化#

  • 在重试源查询引擎中使用服务上下文作为中间索引 (#7341)
  • 针对提示助手和聊天模型的临时修复 (#7350)
  • 在未安装相关包时正确跳过单元测试 (#7351)

[0.8.5.post2] - 2023-08-20#

新功能#

  • 新增对FireStore文档存储/索引存储的支持 (#7305)
  • 添加递归智能体笔记本 (#7330)

错误修复 / 细节优化#

  • 修复Azure pydantic错误 (#7329)
  • 修复回调跟踪ID(将其设为上下文变量)(#7331)

[0.8.5.post1] - 2023-08-18#

新功能#

  • Awadb 向量存储 (#7291)

错误修复 / 细节优化#

  • 修复OpenAI llm温度类型的bug

[0.8.5] - 2023-08-18#

新功能#

  • 在服务上下文中为开源LLM公开系统提示/查询包装器提示 (#6647)
  • 将默认的MyScale索引格式更改为MSTG (#7288)
  • 为聊天引擎/智能体添加了追踪功能 (#7304)
  • 将LLM和嵌入迁移到pydantic (#7289)

错误修复 / 细节优化#

  • 修复句子分割器错误 (#7303)
  • 修复句子分割器无限循环问题 (#7295)

[0.8.4] - 2023-08-17#

错误修复 / 细节优化#

  • 改进SQL查询解析 (#7283)
  • 修复从全局服务上下文加载embed_model的问题 (#7284)
  • 在迁移到pydantic v2之前限制langchain版本 (#7297)

[0.8.3] - 2023-08-16#

新功能#

  • 新增知识图谱RAG检索器 (#7204)

错误修复 / 细节优化#

  • 在OpenAI LLM类构造函数中接受api_key关键字参数 (#7263)
  • 修复为StreamingAgentChatResponse的不同实例创建独立队列实例的问题 (#7264)

[0.8.2.post1] - 2023-08-14#

新功能#

  • 新增对Rockset作为向量存储的支持 (#7111)

错误修复#

  • 修复了可能导致LLM失效的服务上下文定义中的错误 (#7261)

[0.8.2] - 2023-08-14#

新功能#

  • 通过将服务上下文中的LLM或嵌入模型设置为None来禁用它们 (#7255)
  • 使用embed_model="local:"语法解析几乎任何huggingface嵌入模型 (#7255)
  • 异步工具调用支持 (#7239)

错误修复 / 细节优化#

  • 更新了用于添加和查询的supabase kwargs (#7103)
  • 对默认提示进行小幅调整,以支持更通用的查询功能 (#7254)
  • 使CustomLLM的回调管理器变为可选 + 文档更新 (#7257)

[0.8.1] - 2023-08-13#

新功能#

  • 功能:为ContextChatEngine添加node_postprocessors (#7232)
  • 添加集成查询引擎教程 (#7247)

小型功能#

  • 允许为Fastchat/本地OpenAI API端点使用空键(#7224)

[0.8.0] - 2023-08-11#

新功能#

  • 新增"LLAMA_INDEX_CACHE_DIR"参数用于控制缓存文件 (#7233)
  • 尽可能默认使用pydantic选择器 (#7154, #7223)
  • 在服务上下文中移除对embed_model使用langchain封装器的需求 (#7157)
  • 元数据提取器现在除了接受LLMPredictor外,还接受LLM对象 (#7202)
  • 新增本地模式 + 回退至llama.cpp + llama2 (#7200)
  • 为嵌入添加了本地回退至BAAI/bge-small-en (#7200)
  • 新增了SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

重大变更#

  • 将默认LLM从text-davinci-003更改为gpt-3.5-turbo (#7223)
  • 修改compact/refine/tree_summarize的提示词,使其在gpt-3.5-turbo上表现更佳 (#7150, #7179, #7223)
  • 将默认LLM温度参数提高至0.1 (#7180)

[0.7.24.post1] - 2023-08-11#

其他变更#

  • 撤销了 #7223 对默认设置的更改 (#7235)

[0.7.24] - 2023-08-10#

新功能#

  • 尽可能默认使用pydantic选择器 (#7154, #7223)
  • 移除服务上下文中embed_model对langchain封装器的依赖 (#7157)
  • 元数据提取器现在除了接受LLMPredictor外,还接受LLM对象 (#7202)
  • 新增本地模式 + 回退至llama.cpp + llama2 (#7200)
  • 为嵌入模型添加了本地回退选项,使用BAAI/bge-small-en (#7200)
  • 新增了SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

重大变更#

  • 将默认LLM从text-davinci-003更改为gpt-3.5-turbo (#7223)
  • 优化针对gpt-3.5-turbo的compact/refine/tree_summarize提示词 (#7150, #7179, #7223)
  • 将默认LLM温度提高到0.1 (#7180)

其他变更#

  • 文档:改进Mendable搜索功能 (#7220)
  • 重构OpenAI智能体 (#7077)

错误修复 / 细节优化#

  • 在pgvector/postgres向量数据库中使用1 - cosine_distance (#7217)
  • 修复元数据格式化和提取问题 (#7216)
  • 修复(readers): 修复非ASCII JSON阅读器错误 (#7086)
  • 杂项:为了更清晰,将PgVectorStore变量名从sim改为distance (#7226)

[0.7.23] - 2023-08-10#

错误修复 / 细节优化#

  • 修复了自定义模板和继承中的元数据格式化问题 (#7216)

[0.7.23] - 2023-08-10#

新功能#

  • 在文档中添加"一键可观测性"页面 (#7183)
  • 为本地部署添加了Xorbits推理支持 (#7151)
  • 新增了Zep向量存储集成 (#7203)
  • feat/zep 向量存储 (#7203)

错误修复 / 细节优化#

  • 更新默认的EntityExtractor模型 (#7209)
  • 使ChatMemoryBuffer可序列化 (#7205)
  • 重构了BaseOpenAIAgent (#7077)

[0.7.22] - 2023-08-08#

新功能#

  • 添加集成检索器笔记本 (#7190)
  • 文档:新增本地llama2笔记本 (#7146)

错误修复 / 细节优化#

  • 修复了AttributeError: 'OpenAIAgent' object has no attribute 'callback_manager'的问题,方法是在BaseOpenAIAgent中调用父类构造函数
  • 从nebula查询中移除反引号 (#7192)

[0.7.21] - 2023-08-07#

新功能#

  • 新增了一个用于元数据提取的EntityExtractor (#7163)

[0.7.20] - 2023-08-06#

新功能#

  • 添加路由模块文档 (#7171)
  • 添加检索器路由 (#7166)

新功能#

  • 新增了一个RouterRetriever,用于将查询路由到特定的检索器 (#7166)

错误修复 / 细节优化#

  • 修复了当OpenAIAgent同时产生多个流式响应时,会导致各响应流之间的令牌交错的问题。(#7164)
  • 修复llms回调问题(args[0]错误)(#7165)

[0.7.19] - 2023-08-04#

新功能#

  • 为weaviate添加了元数据过滤功能 (#7130)
  • 为智能体和流式处理添加了令牌计数(及所有回调)功能 (#7122)

[0.7.18] - 2023-08-03#

新功能#

  • 为内存对象添加了to/from_stringto/from_dict方法 (#7128)
  • 在SQL查询的表信息中包含数据库表的列注释 (#7124)
  • 添加Neo4j支持 (#7122)

错误修复 / 细节优化#

  • AzureOpenAI类添加了Azure AD验证支持 (#7127)
  • 在打印智能体/聊天引擎响应流时添加flush=True (#7129)
  • AzureOpenAI类添加了Azure AD支持 (#7127)
  • 更新LLM问题生成器提示,提及JSON markdown (#7105)
  • 修复了聊天引擎中的 astream_chat 功能 (#7139)

[0.7.17] - 2023-08-02#

新功能#

  • 更新ReActAgent以支持内存模块(这是一个较小的破坏性变更,因为构造函数现在接收memory参数而非chat_history,但主要的from_tools方法仍保持向后兼容性。)(#7116)
  • 更新 ReActAgent 以支持流式处理 (#7119)
  • 新增了Neo4j图存储与查询引擎集成 (#7122)
  • 添加对象流式传输 (#7117)

[0.7.16] - 2023-07-30#

新功能#

  • 聊天源节点 (#7078)

[0.7.15] - 2023-07-29#

错误修复 / 细节优化#

  • Anthropic API密钥自定义 (#7082)
  • 修复贡献者文档中API参考的失效链接 (#7080)
  • 更新向量存储文档 (#7076)
  • 更新评论 (#7073)

[0.7.14] - 2023-07-28#

新功能#

  • 新增HotpotQADistractor基准评估器 (#7034)
  • 为LanceDB添加元数据过滤和删除支持 (#7048)
  • 在opensearch中使用MetadataFilters (#7005)
  • 新增支持 KuzuGraphStore (#6970)
  • 新增 kg_triplet_extract_fn 用于自定义知识图谱构建方式 (#7068)

错误修复 / 细节优化#

  • 修复上下文聊天引擎中的字符串格式化问题 (#7050)
  • 修复了异步事件的追踪问题 (#7052)
  • 为知识图谱(KGs)放宽三元组提取限制 (#7059)
  • 为检索到的KG数据添加可配置限制 (#7059)
  • Nebula连接改进 (#7059)
  • 修复了为智能体响应构建源节点的错误 (#7067)

[0.7.13] - 2023-07-26#

新功能#

  • 支持AzureOpenAI的函数调用API (#7041)

错误修复 / 细节优化#

  • 调整提示以避免SubQ引擎中的KeyError错误 (#7039)
  • 修复Azure OpenAI密钥的验证问题 (#7042)

[0.7.12] - 2023-07-25#

新功能#

  • 为底层查询引擎的ComposableGraph添加了kwargs参数 (#6990)
  • 初始化时验证OpenAI密钥 (#6940)
  • 新增异步嵌入和异步检索查询引擎 (#6587)
  • 为PGVectorStore添加了异步aqueryasync_add方法 (#7031)
  • 为聊天引擎和智能体响应添加了.source_nodes属性 (#7029)
  • 新增了OpenInferenceCallback用于以OpenInference格式存储生成数据(#6998)

错误修复 / 细节优化#

  • 修复数据智能体的聊天内存初始化问题 (#7000)
  • 向智能体/聊天引擎响应类添加print_response_stream() (#7018)

错误修复 / 细节优化#

  • 修复数据智能体的聊天内存初始化问题 (#7000)
  • 在智能体/聊天引擎响应类中添加print_response_stream() (#7018)

[v0.7.11.post1] - 2023-07-20#

新功能#

  • 在可能的情况下,子问题查询引擎默认使用pydantic生成问题 (#6979)

错误修复 / 细节优化#

  • 修复大型聊天记忆中的消息返回顺序问题 (#6979)

[v0.7.11] - 2023-07-19#

新功能#

  • 新增了一个SentenceTransformerRerank节点后处理器,用于快速本地重新排序 (#6934)
  • 为pandas查询引擎添加numpy支持以评估查询 (#6935)
  • 为Postgres Vector Storage集成添加元数据过滤支持 (#6968)
  • 为智能体和查询引擎提供完善的llama2支持 (#6969)

错误修复 / 细节优化#

  • 为LLMMetadata添加了model_name参数 (#6911)
  • 在查询引擎中回退到检索器服务上下文 (#6911)
  • 修复了as_chat_engine()因额外kwargs参数导致的ValueError错误 (#6971)

[v0.7.10.post1] - 2023-07-18#

新功能#

  • 新增对Replicate LLM的支持(vicuna和llama 2!)

错误修复 / 细节优化#

  • 修复了condense聊天引擎的流式传输问题 (#6958)

[v0.7.10] - 2023-07-17#

新功能#

  • 添加对chroma v0.4.0的支持 (#6937)
  • 将嵌入向量记录到回调管理器 (#6962)

错误修复 / 细节优化#

  • 增加更健壮的嵌入超时处理 (#6779)
  • 改进了Postgres向量存储的连接会话管理 (#6843)

[v0.7.9] - 2023-07-15#

新功能#

  • 指定 embed_model="local" 以在服务上下文中使用默认的本地嵌入 (#6806)
  • BasePydanticProgram添加异步acall端点(默认为同步版本)。为OpenAIPydanticProgram实现该功能

错误修复 / 细节优化#

  • 修复搜索现有向量数据库时的空元数据问题 (#6912)
  • SimpleDirectoryReader添加模块指南文档 (#6916)
  • 确保CondenseQuestionChatEngine流式聊天端点正常工作,即使未在底层查询引擎中显式设置streaming=True

[v0.7.8] - 2023-07-13#

新功能#

  • 新增了嵌入速度基准测试 (#6876)
  • 新增了BEIR检索基准测试 (#6825)

错误修复 / 细节优化#

  • 从deprecated_terms中移除toctrees (#6895)
  • 放宽类型依赖 (#6879)
  • 文档:对评估笔记本的修改 (#6840)
  • 如果模型不支持函数则抛出错误 (#6896)
  • 修复(基准嵌入): 未考虑字符串长度的错误 (#6899)x

[v0.7.7] - 2023-07-13#

新功能#

  • 改进Milvus一致性支持及输出字段支持 (#6452)
  • 新增支持通过cypher+nebula进行知识图谱查询 (#6642)
  • 新增 Document.example() 方法用于快速原型设计的文档创建 (#6739)
  • 将react聊天引擎替换为使用原生响应式智能体 (#6870)

错误修复 / 细节优化#

  • chore: 在makefile中添加了帮助信息 (#6861)

错误修复 / 细节优化#

  • 修复了对使用SQLTableSchema context_str属性的支持 (#6891)

[v0.7.6] - 2023-07-12#

新功能#

  • 在智能体/聊天引擎响应中添加了来源 (#6854)
  • 为智能体/聊天引擎添加了基础聊天缓冲记忆功能 (#6857)
  • 添加加载和搜索工具 (#6871)
  • 添加简单的智能体基准测试 (#6869)
  • 添加智能体文档 (#6866)
  • 添加react智能体 (#6865)

重大变更/废弃的API更改#

  • 将react聊天引擎替换为原生react智能体 (#6870)
  • 将默认聊天模式设置为"best":尽可能使用openai智能体,否则使用react智能体 (#6870)

错误修复 / 细节优化#

  • 修复了对旧版向量存储元数据的支持 (#6867)
  • 修复文档中的chroma笔记本 (#6872)
  • 更新LC嵌入文档 (#6868)

[v0.7.5] - 2023-07-11#

新功能#

  • 添加 Anthropic LLM 实现 (#6855)

错误修复 / 细节优化#

  • 修复SentenceEmbeddingOptimizer中的索引错误 (#6850)
  • 修复自定义嵌入模型的文档 (#6851)
  • 修复(静默错误): 为SimpleDirectoryReader添加验证 (#6819)
  • 修复文档中的链接 (#6833)
  • 修复了Azure gpt-35-turbo模型未被识别的问题 (#6828)
  • 更新 Chatbot_SEC.ipynb (#6808)
  • 将剩余的原始名称重命名为LlamaIndex (#6792)
  • 修复同一类型的嵌套跟踪 (#6791)

[v0.7.4] - 2023-07-08#

新功能#

  • MetadataExtractor - 通过基于LLM的特征提取器增强文档元数据 (#6764)

错误修复 / 细节优化#

  • 修复了将查询包传递给节点后处理器的问题 (#6780)
  • 修复了回调管理器中嵌套跟踪的错误 (#6791)

[v0.7.3] - 2023-07-07#

新功能#

  • 子问题查询引擎在回调管理器中返回子问题的源节点 (#6745)
  • trulens集成 (#6741)
  • 向子问题引擎添加来源 (#6745)

错误修复 / 细节优化#

  • 为简单和紧凑聊天引擎添加/修复了流式支持 (#6717)
  • 修复了response_mode="no_text"响应合成器 (#6755)
  • 修复了在服务上下文中设置num_outputcontext_window时的错误 (#6766)
  • 修复教程中缺失的as_query_engine()方法 (#6747)
  • 修复了笔记本中的变量sql_query_engine (#6778)
  • 修复必需函数字段 (#6761)
  • 移除Prompt和SQL生成中对停止令牌的使用 (#6782)

[v0.7.2] - 2023-07-06#

新功能#

  • 支持 Azure OpenAI (#6718)
  • 在聊天引擎和OpenAI智能体中支持前缀消息(例如系统提示)(#6723)
  • 新增了CBEventType.SUB_QUESTIONS事件类型,用于追踪子问题查询/响应 (#6716)

错误修复 / 细节优化#

  • 修复HF LLM输出错误 (#6737)
  • 为langchain消息模板添加系统消息支持 (#6743)
  • 修复了应用节点后处理器的问题 (#6749)
  • llama_index.llms下添加缺失的CustomLLM导入 (#6752)
  • 修复(拼写错误): get_transformer_tokenizer_fn (#6729)
  • 功能(格式化): black[jupyter] (#6732)
  • 修复(测试): test_optimizer_chinese (#6730)

[v0.7.1] - 2023-07-05#

新功能#

  • 为OpenAI智能体添加流式支持 (#6694)
  • 添加递归检索器 + 笔记本示例 (#6682)

[v0.7.0] - 2023-07-04#

新功能#

  • 索引创建进度条 (#6583)

错误修复/细节优化#

  • 改进了聊天优化模板 (#6645)

重大变更/废弃的API更改#

  • BaseOpenAIAgent改为使用llama_index.llms.OpenAI。调整chat_history的类型为List[ChatMessage]]
  • 移除(之前已弃用的)llama_index.langchain_helpers.chain_wrapper模块。
  • 移除(之前已弃用的)llama_index.token_counter.token_counter模块。有关基于回调的新令牌计数方式的更多详情,请参阅迁移指南
  • 移除 ChatGPTLLMPredictorHuggingFaceLLMPredictor。有关替代方案的更多详情,请参阅迁移指南
  • 移除通过LLMPredictor构造函数设置cache的支持。
  • 更新 BaseChatEngine 接口:
  • 调整 chat_history 使用 List[ChatMessage]] 作为类型
  • chat_history状态作为属性公开
  • 支持在chatachat端点中覆盖chat_history
  • 移除PromptHelper中已弃用的参数:max_input_size, embedding_limit, max_chunk_overlap
  • 更新所有笔记本以使用原生OpenAI集成 (#6696)

[v0.6.38] - 2023-07-02#

新功能#

  • 在索引创建过程中添加可选的tqdm进度条 (#6583)
  • 为"compact"和"refine"响应模式添加了异步支持 (#6590)
  • [功能]为优化器添加transformer分词功能(中文) (#6659)
  • 为向量存储添加简单基准测试 (#6670)
  • 引入llama_index.llms模块,包含新的LLM接口,以及OpenAIHuggingFaceLLMLangChainLLM实现。(#6615)
  • 蒸发pydantic程序 (#6666)

错误修复 / 细节优化#

  • 改进RedisVectorStore的元数据/节点存储和检索功能 (#6678)
  • 修复向量存储中的固定节点与文档过滤问题 (#6677)
  • 将上下文检索智能体笔记本链接添加到文档 (#6660)
  • 允许ImageNode类中的'image'属性为空值并修复相关...(问题编号#6661)
  • 修复文档中的失效链接 (#6669)
  • 更新milvus以存储节点内容 (#6667)

[v0.6.37] - 2023-06-30#

新功能#

  • 添加上下文增强的OpenAI智能体 (#6655)

[v0.6.36] - 2023-06-29#

新功能#

  • Redis 支持索引存储和文档存储 (#6575)
  • DuckDB + SQL查询引擎笔记本 (#6628)
  • 添加展示deplot数据加载器的笔记本 (#6638)

错误修复 / 细节优化#

  • 针对SelectionOutputParser的LLM JSON解析更加健壮 (#6610)
  • 将我们的加载器与llama-hub重新对齐 (#6630)
  • 在笔记本中移除SQLStructStoreIndex的使用 (#6585)
  • MD reader: remove html tags and leave linebreaks alone (#6618)
  • 将最小langchain版本升级至最新版本 (#6632)
  • 修复Postgres向量存储中的元数据列名 (#6622)
  • Postgres 元数据修复 (#6626, #6634)
  • 修复了contribution.md中指向数据加载器的链接 (#6636)
  • 修复:在创建自定义LLM HuggingFace示例的文档中的拼写错误 (#6639)
  • 更新了SelectionOutputParser以处理JSON对象和数组 (#6610)
  • 修复了文档字符串参数拼写错误 (#6652)

[v0.6.35] - 2023-06-28#

  • 重构结构化输出 + pydantic程序 (#6604)

错误修复 / 细节优化#

  • 修复OpenSearch向量存储的序列化问题 (#6612)
  • 修复文档关系 (#6606)
  • 修复了在解析git仓库时忽略目录的问题 (#4196)
  • 更新了Chroma笔记本 (#6572)
  • 回退旧节点名称 (#6614)
  • 新增更改chroma实现的功能 (#6601)

[v0.6.34] - 2023-06-26#

补丁更新 (v0.6.34.post1)#

  • 为Document对象打补丁导入以保持向后兼容性 (#6597)

新功能#

  • 基于pydantic的新TextNode/Document对象类 (#6586)
  • TextNode/Document 对象支持元数据自定义(元数据模板、从LLM或嵌入中排除元数据)(#6586)
  • 节点不再需要扁平化的元数据字典,除非您使用的向量存储要求这样做 (#6586)

错误修复 / 细节优化#

  • 使用 NLTK_DATA 环境变量控制 NLTK 下载位置 (#6579)
  • [discord] 在group_conversations.py中将作者保存为元数据 (#6592)
  • bs4 -> 在requirements中将beautifulsoup4替换为bs4 (#6582)
  • 取反欧几里得距离 (#6564)
  • 将df输出解析器笔记本链接添加到文档 (#6581)

重大变更/废弃的API更改#

  • Node 已更名为 TextNode,并从 llama_index.schema 导入 (#6586)
  • TextNodeDocument 必须使用关键字参数实例化:Document(text=text) (#6586)
  • TextNode (曾用名 Node) 具有 id_node_id 属性,而非 doc_id (#6586)
  • TextNodeDocument 拥有一个 metadata 属性,该属性取代了原来的 extra_info 属性 (#6586)
  • TextNode 不再具有 node_info 属性(起始/结束索引现在直接通过 start/end_char_idx 属性访问)(#6586)

[v0.6.33] - 2023-06-25#

新功能#

  • 新增typesense向量存储 (#6561)
  • 添加df输出解析器 (#6576)

错误修复 / 细节优化#

  • 通过桥接模块跟踪langchain依赖项。(#6573)

[v0.6.32] - 2023-06-23#

新功能#

  • 添加对象索引 (#6548)
  • 添加SQL模式节点映射 + SQLTableRetrieverQueryEngine + 对象索引修复 (#6569)
  • SQL重构 (NLSQLTableQueryEngine) (#6529)

错误修复 / 细节优化#

  • 更新 vector_stores.md 文档 (#6562)
  • BaseResponseBuilder 接口进行了小幅清理 (#6557)
  • 重构TreeSummarize (#6550)

[v0.6.31] - 2023-06-22#

错误修复 / 细节优化#

  • 正确将weaviate距离转换为分数 (#6545)
  • 重构树状总结功能并修复不截断上下文的错误 (#6550)
  • 修复自定义知识图谱检索笔记本中的小问题 (#6551)

[v0.6.30] - 2023-06-21#

新功能#

  • 路由器查询引擎中的多选择器支持 (#6518)
  • 在路由器查询引擎中支持使用OpenAI函数调用API的pydantic选择器 (#6518)
  • CondenseQuestionChatEngineSimpleChatEngine中支持流式响应 (#6524)
  • QdrantVectorStore中支持元数据过滤 (#6476)
  • 添加 PGVectorStore 以支持使用 pgvector 的 postgres (#6190)

错误修复 / 细节优化#

  • mbox阅读器中更好的错误处理 (#6248)
  • 修复使用weaviate时相似度分数为空的问题 (#6512)
  • 修复了PrevNextNodePostprocessor中对排序节点的处理 (#6048)

重大变更/废弃的API更改#

  • 重构PandasQueryEngine以直接接收数据框df,弃用PandasIndex (#6527)

[v0.6.29] - 2023-06-20#

新功能#

  • 基于OpenAI Function API的查询规划工具 (#6520)
  • docs: 知识图谱+向量索引示例 (#6497)
  • 为Cohere和AI21(J2模型)设置上下文窗口大小 (#6485)

错误修复 / 细节优化#

  • 为Cohere和AI21添加默认输入大小 (#6485)
  • 文档:在字典对象中用冒号替换逗号 (#6439)
  • 提示信息和错误消息更新中的额外空格问题 (#6443)
  • [问题 6417] 修复 prompt_templates 文档页面 (#6499)
  • 移除临时补丁并更新模型到上下文窗口映射 (#6490)

[v0.6.28] - 2023-06-19#

新功能#

  • 新版OpenAI智能体 + 查询引擎使用指南 (#6496)
  • 允许递归数据提取(pydantic程序)(#6503)

错误修复 / 细节优化#

  • 更新Mongo接口 (#6501)
  • 修复了我们忘记为openai pydantic程序包含的内容 (#6503) (#6504)
  • 修复Airbyte笔记本中的GitHub图片问题 (#6493)

[v0.6.27] - 2023-06-16#

新功能#

  • 为weaviate添加节点文档ID过滤功能 (#6467)
  • 新增 TokenCountingCallback 功能,用于自定义和追踪嵌入、提示及完成令牌的使用情况 (#6440)
  • OpenAI检索功能智能体 (#6491)

重大变更/废弃的API更改#

  • 弃用当前令牌追踪功能(llm预测器和嵌入模型未来将不再追踪令牌,请改用TokenCountingCallback (#6440)
  • 为Simple Vector Store添加最大边际相关性功能,可作为查询模式启用 (#6446)

错误修复 / 细节优化#

  • as_chat_engine 正确继承了当前的服务上下文 (#6470)
  • 从Pinecone删除时使用命名空间 (#6475)
  • 修复在Windows上使用fsspec时的路径问题 (#3778)
  • 修复了在SimpleDirectoryReader中使用自定义文件读取器的问题 (#6477)
  • 编辑MMR笔记本 (#6486)
  • FLARE 修复 (#6484)

[v0.6.26] - 2023-06-14#

新功能#

  • 新增OpenAIAgent智能体及"构建自定义智能体"教程笔记本 (#6461)
  • 添加OpenAIPydanticProgram (#6462)

错误修复 / 细节优化#

  • 修复引用引擎导入问题 (#6456)

[v0.6.25] - 2023-06-13#

新功能#

  • 新增了FLARE查询引擎 (#6419)。

[v0.6.24] - 2023-06-12#

新功能#

  • 为Pinecone和Weaviate向量存储添加了对现有数据的更好支持(例如允许可配置的文本键)。(#6393)
  • 支持Pineone的批量upsert操作 (#6393)
  • 新增了初步的guidance集成。添加了GuidancePydanticProgram用于通用结构化输出生成,以及GuidanceQuestionGenerator用于在SubQuestionQueryEngine中生成子问题(#6246)。

[v0.6.23] - 2023-06-11#

错误修复 / 细节优化#

  • 移除引用查询引擎中的硬编码分块大小 (#6408)
  • Mongo演示改进 (#6406)
  • 修复笔记本 (#6418)
  • 清理重试查询笔记本 (#6381)

[v0.6.22] - 2023-06-10#

新功能#

  • 新增了SQLJoinQueryEngineSQLAutoVectorQueryEngine的通用版本)(#6265)
  • 底层新增了对图存储的支持,并初步支持Nebula KG知识图谱。更多文档即将发布!(#2581)
  • 新增了指南评估器,允许llm根据用户指南提供反馈 (#4664)
  • 新增支持MongoDB向量存储,以实现Atlas knnbeta搜索功能 (#6379)
  • 新增了CitationQueryEngine,用于在响应文本中内联引用来源 (#6239)

错误修复#

  • 修复了delete_ref_doc未从文档存储中移除所有元数据的错误 (#6192)
  • 修复了加载现有 QDrantVectorStore 的bug (#6230)

其他#

  • 正式将变更日志添加到github仓库 (#6191)

[v0.6.21] - 2023-06-06#

新功能#

  • SimpleDirectoryReader新增了filename_as_id标志,可自动设置doc_id(对refresh_ref_docs()非常有用)
  • DocArray向量存储集成
  • Tair向量存储集成
  • 用于追踪和版本化索引的Weights and Biases回调处理器
  • 可以直接从向量存储初始化索引:index = VectorStoreIndex.from_vector_store(vector_store=vector_store)

错误修复#

  • 修复了多模态笔记本的问题
  • 更新/修复了文档中的SQL教程

其他#

  • 文档小幅更新
  • 新增了GitHub拉取请求模板
  • 新增了GitHub问题表单

[v0.6.20] - 2023-06-04#

新功能#

  • 新增了JSONQueryEngine,它利用JSON模式提供更精确的JSON查询答案
  • Redis向量存储的元数据支持
  • 新增了Supabase向量存储集成

错误修复#

  • 修正了文本转SQL提示中的拼写错误

重大变更/废弃的API更改#

  • 移除了索引中的GPT前缀(但仍支持旧的导入/名称)

其他#

  • 主要文档更新,将重要模块提升至顶层

[v0.6.19] - 2023-06-02#

新功能#

  • 为llama-hub数据加载器添加了智能体工具抽象

其他#

  • 文档小更新

[v0.6.18] - 2023-06-02#

其他#

  • 在教程文档部分新增了Discover LlamaIndex视频系列
  • 小幅文档更新
优云智算