跳转到内容

安装与设置

LlamaIndex生态系统通过一组命名空间的Python包进行结构化构建。

这意味着用户将获得一个核心启动包集合,并且可以根据需要安装额外的集成组件。

完整的软件包和可用集成列表可在 LlamaHub 上查看。

要快速开始,您可以通过以下方式安装:

Terminal window
pip install llama-index

这是一个入门级的软件包集合,包含

  • llama-index-core
  • llama-index-llms-openai
  • llama-index-embeddings-openai
  • llama-index-readers-file

注意: llama-index-core 已预装NLTK和tiktoken文件,以避免在运行时进行下载和网络调用。

默认情况下,我们使用OpenAI gpt-3.5-turbo模型进行文本生成,并使用text-embedding-ada-002进行检索和嵌入。要使用此功能,您必须将OPENAI_API_KEY设置为环境变量。 您可以通过登录OpenAI账户并创建新的API密钥来获取API密钥。

查看我们的 OpenAI 入门示例

如果您不使用OpenAI,或者希望进行更选择性的安装,可以根据需要单独安装各个软件包。

例如,对于使用 Ollama 和 HuggingFace 嵌入的本地设置,安装过程可能如下所示:

Terminal window
pip install llama-index-core llama-index-readers-file llama-index-llms-ollama llama-index-embeddings-huggingface

查看我们的本地模型入门示例

关于使用和配置LLM的完整指南可在此处查看。

关于使用和配置嵌入模型的完整指南可在此处查看

克隆此代码仓库:git clone https://github.com/run-llama/llama_index.git。然后执行以下操作:

  • 安装 poetry - 这将帮助您管理软件包依赖项
  • If you need to run shell commands using Poetry but the shell plugin is not installed, add the plugin by running:
    poetry self add poetry-plugin-shell
  • poetry shell - 此命令创建一个虚拟环境,将已安装的软件包限定在此项目中
  • pip install -e llama-index-core - 这将安装核心包
  • (可选)poetry install --with dev,docs - 这将安装大多数本地开发所需的所有依赖项

从那里,您可以根据需要使用 pip 安装集成,例如:

Terminal window
pip install -e llama-index-integrations/readers/llama-index-readers-file
pip install -e llama-index-integrations/llms/llama-index-llms-ollama