插件目录#

以下是可用于LLM的插件。这里是如何安装它们

本地模型#

这些插件都可以帮助您直接在您自己的计算机上运行LLMs:

  • llm-gguf 使用 llama.cpp 来运行以 GGUF 格式发布的模型。

  • llm-mlx (仅限Mac) 使用苹果的MLX框架,提供对大量本地模型的极高性能访问。

  • llm-ollama 增加了对使用 Ollama 运行的本地模型的支持。

  • llm-llamafile 增加了对使用 llamafile 在本地运行的本地模型的支持。

  • llm-mlc 可以运行由 MLC 项目 发布的本地模型,包括可以利用 Apple Silicon M1/M2 设备上的 GPU 的模型。

  • llm-gpt4all 增加了对GPT4All项目发布的各种模型的支持,这些模型经过优化,可以在您自己的机器上本地运行。这些模型包括Vicuna、Orca、Falcon和MPT的版本 - 这里是完整的模型列表

  • llm-mpt30b 添加了对 MPT-30B 本地模型的支持。

远程API#

这些插件可以通过它们的API与远程托管的模型进行交互:

如果API模型主机提供了与OpenAI兼容的API,你也可以配置LLM与其通信,而无需额外的插件。

嵌入模型#

Embedding models 是可以用于生成和存储文本嵌入向量的模型。

额外命令#

  • llm-cmd 接受一个用于生成 shell 命令的提示,运行该提示并将结果填充到你的 shell 中,以便你可以查看、编辑,然后按 执行或按 ctrl+c 取消。

  • llm-cmd-comp 为您的 shell 提供了一个键绑定,将启动聊天以构建命令。准备就绪后,按下 ,它将直接返回到您的 shell 命令行,以便您可以运行它。

  • llm-python 添加了一个 llm python 命令,用于在与 LLM 相同的虚拟环境中运行 Python 解释器。这对于调试非常有用,并且如果您使用 Homebrew 或 pipx 安装了 LLM,它还提供了一种方便的方式来与 LLM Python API 进行交互。

  • llm-cluster 添加了一个 llm cluster 命令,用于计算一组嵌入的聚类。计算出的聚类可以传递给大型语言模型以生成摘要描述。

  • llm-jq 允许你输入JSON数据和一个描述jq程序的提示,然后根据生成的程序对JSON执行操作。

只是为了好玩#