跳至内容

Ollama 聊天模型节点#

Ollama聊天模型节点允许您将本地Llama 2模型与对话型智能体结合使用。

本页面将介绍Ollama聊天模型节点的参数配置,并提供更多相关资源的链接。

Credentials

您可以在此节点的此处找到认证信息。

子节点中的参数解析

在使用表达式处理多个项目时,子节点的行为与其他节点不同。

大多数节点(包括根节点)可以接收任意数量的项目作为输入,处理这些项目并输出结果。您可以使用表达式来引用输入项,节点会依次为每个项目解析该表达式。例如,给定五个name值的输入,表达式{{ $json.name }}会依次解析为每个名称。

在子节点中,表达式始终解析为第一项。例如,给定五个name值输入时,表达式{{ $json.name }}总是解析为第一个名称。

节点参数#

  • Model: Select the model that generates the completion. Choose from:
    • Llama2
    • Llama2 13B
    • Llama2 70B
    • Llama2 无审查版

有关可用模型的更多信息,请参阅Ollama模型库文档

节点选项#

  • 采样温度: 使用此选项控制采样过程的随机性。较高的温度会产生更多样化的采样结果,但会增加产生幻觉的风险。
  • Top K: 输入模型用于生成下一个token的候选token数量。
  • Top P: 使用此选项设置补全应采用的概率值。设置较低的值可以忽略概率较低的选项。

模板和示例#

Chat with local LLMs using n8n and Ollama

作者:Mihai Farcas

查看模板详情
🔐🦙🤖 Private & Local Ollama Self-Hosted AI Assistant

作者:Joseph LePage

查看模板详情
🐋DeepSeek V3 Chat & R1 Reasoning Quick Start

作者:Joseph LePage

查看模板详情
浏览Ollama聊天模型集成模板, or 搜索所有模板

有关该服务的更多信息,请参考LangChains的Ollama聊天模型文档

查看n8n的高级AI文档。

常见问题#

关于常见问题或疑问及建议解决方案,请参阅常见问题

AI术语表#

  • completion: 补全(completion)是指由GPT等模型生成的响应内容。
  • 幻觉: AI中的幻觉是指大型语言模型(LLM)错误地感知到不存在的模式或对象。
  • 向量数据库: 向量数据库存储信息的数学表示。与嵌入和检索器配合使用,可创建AI在回答问题时能够访问的数据库。
  • 向量存储: 向量存储(或称向量数据库)用于存储信息的数学表示。结合嵌入模型和检索器使用,可创建供AI在回答问题时访问的数据库。

自托管AI入门套件#

初次接触AI并使用自托管的n8n?试试n8n的自托管AI入门套件,通过Ollama、Qdrant和PostgreSQL快速搭建概念验证或演示环境。

优云智算