Ollama 聊天模型节点#
Ollama聊天模型节点允许您将本地Llama 2模型与对话型智能体结合使用。
本页面将介绍Ollama聊天模型节点的参数配置,并提供更多相关资源的链接。
Credentials
您可以在此节点的此处找到认证信息。
子节点中的参数解析
在使用表达式处理多个项目时,子节点的行为与其他节点不同。
大多数节点(包括根节点)可以接收任意数量的项目作为输入,处理这些项目并输出结果。您可以使用表达式来引用输入项,节点会依次为每个项目解析该表达式。例如,给定五个name值的输入,表达式{{ $json.name }}会依次解析为每个名称。
在子节点中,表达式始终解析为第一项。例如,给定五个name值输入时,表达式{{ $json.name }}总是解析为第一个名称。
节点参数#
- Model: Select the model that generates the completion. Choose from:
- Llama2
- Llama2 13B
- Llama2 70B
- Llama2 无审查版
有关可用模型的更多信息,请参阅Ollama模型库文档。
节点选项#
- 采样温度: 使用此选项控制采样过程的随机性。较高的温度会产生更多样化的采样结果,但会增加产生幻觉的风险。
- Top K: 输入模型用于生成下一个token的候选token数量。
- Top P: 使用此选项设置补全应采用的概率值。设置较低的值可以忽略概率较低的选项。
模板和示例#
相关资源#
有关该服务的更多信息,请参考LangChains的Ollama聊天模型文档。
查看n8n的高级AI文档。
常见问题#
关于常见问题或疑问及建议解决方案,请参阅常见问题。
AI术语表#
- completion: 补全(completion)是指由GPT等模型生成的响应内容。
- 幻觉: AI中的幻觉是指大型语言模型(LLM)错误地感知到不存在的模式或对象。
- 向量数据库: 向量数据库存储信息的数学表示。与嵌入和检索器配合使用,可创建AI在回答问题时能够访问的数据库。
- 向量存储: 向量存储(或称向量数据库)用于存储信息的数学表示。结合嵌入模型和检索器使用,可创建供AI在回答问题时访问的数据库。
自托管AI入门套件#
初次接触AI并使用自托管的n8n?试试n8n的自托管AI入门套件,通过Ollama、Qdrant和PostgreSQL快速搭建概念验证或演示环境。