Skip to main content

特定提供者参数

提供者可能会提供OpenAI不支持的参数(例如top_k)。LiteLLM将任何非OpenAI的参数视为特定提供者参数,并在请求体中以关键字参数的形式传递给提供者。查看保留参数

你可以通过两种方式传递这些参数:

  • 通过completion():我们将直接把非OpenAI参数作为请求体的一部分传递给提供者。
    • 例如:completion(model="claude-instant-1", top_k=3)
  • 通过特定提供者的配置变量(例如litellm.OpenAIConfig())。

SDK 用法

import litellm, os

# 设置环境变量
os.environ["OPENAI_API_KEY"] = "your-openai-key"

## 设置最大令牌数 - 通过 completion()
response_1 = litellm.completion(
model="gpt-3.5-turbo",
messages=[{ "content": "Hello, how are you?","role": "user"}],
max_tokens=10
)

response_1_text = response_1.choices[0].message.content

## 设置最大令牌数 - 通过配置
litellm.OpenAIConfig(max_tokens=10)

response_2 = litellm.completion(
model="gpt-3.5-turbo",
messages=[{ "content": "Hello, how are you?","role": "user"}],
)

response_2_text = response_2.choices[0].message.content

## 测试输出
assert len(response_2_text) > len(response_1_text)

查看教程!

代理使用

通过配置

model_list:
- model_name: llama-3-8b-instruct
litellm_params:
model: predibase/llama-3-8b-instruct
api_key: os.environ/PREDIBASE_API_KEY
tenant_id: os.environ/PREDIBASE_TENANT_ID
max_tokens: 256
adapter_base: <my-special_base> # 👈 提供者特定参数

通过请求

curl -X POST 'http://0.0.0.0:4000/chat/completions' \
-H 'Content-Type: application/json' \
-H 'Authorization: Bearer sk-1234' \
-D '{
"model": "llama-3-8b-instruct",
"messages": [
{
"role": "user",
"content": "What'\''s the weather like in Boston today?"
}
],
"adapater_id": "my-special-adapter-id" # 👈 提供者特定参数
}'
优云智算