OpenLLM
要使用 OpenLLM 与 promptfoo,我们利用 OpenLLM 对 OpenAI 兼容端点 的支持。
-
使用
openllm start命令启动服务器。 -
设置环境变量:
- 将
OPENAI_BASE_URL设置为http://localhost:8001/v1 - 将
OPENAI_API_KEY设置为虚拟值foo。
- 将
-
根据您的使用场景,使用
chat或completion模型类型。聊天格式示例: 要使用聊天格式提示运行 Llama2 评估,首先启动模型:
openllm start llama --model-id meta-llama/Llama-2-7b-chat-hf然后设置 promptfoo 配置:
providers:
- openai:chat:llama2完成格式示例: 要使用完成格式提示运行 Flan 评估,首先启动模型:
openllm start flan-t5 --model-id google/flan-t5-large然后设置 promptfoo 配置:
providers:
- openai:completion:flan-t5 -
有关更多详细信息,请参阅 OpenAI 提供者文档。