Azure OpenAI 服务入门指南
本指南展示如何设置一个最小化部署,以便通过Azure OpenAI服务使用TensorZero网关。
设置
对于这个最小化配置,您的项目目录中只需要两个文件:
Directoryconfig/
- tensorzero.toml
- docker-compose.yml
关于生产环境部署,请参阅我们的部署指南。
配置
创建一个最小化的配置文件,定义模型和一个简单的聊天功能:
[models.gpt_4o_mini_2024_07_18]routing = ["azure"]
[models.gpt_4o_mini_2024_07_18.providers.azure]type = "azure"deployment_id = "gpt4o-mini-20240718"endpoint = "https://your-azure-openai-endpoint.openai.azure.com"
[functions.my_function_name]type = "chat"
[functions.my_function_name.variants.my_variant_name]type = "chat_completion"model = "gpt_4o_mini_2024_07_18"
Credentials
在运行网关之前,您必须设置AZURE_OPENAI_API_KEY
环境变量。
您可以通过将api_key_location
设置为env::YOUR_ENVIRONMENT_VARIABLE
或dynamic::ARGUMENT_NAME
来自定义凭证存储位置。
更多信息请参阅凭证管理指南和配置参考。
部署 (Docker Compose)
创建一个最小化的Docker Compose配置:
# This is a simplified example for learning purposes. Do not use this in production.# For production-ready deployments, see: https://www.tensorzero.com/docs/gateway/deployment
services: gateway: image: tensorzero/gateway volumes: - ./config:/app/config:ro command: --config-file /app/config/tensorzero.toml environment: - AZURE_OPENAI_API_KEY=${AZURE_OPENAI_API_KEY:?Environment variable AZURE_OPENAI_API_KEY must be set.} ports: - "3000:3000" extra_hosts: - "host.docker.internal:host-gateway"
您可以通过docker compose up
命令启动网关。
推理
向网关发起推理请求:
curl -X POST http://localhost:3000/inference \ -H "Content-Type: application/json" \ -d '{ "function_name": "my_function_name", "input": { "messages": [ { "role": "user", "content": "What is the capital of Japan?" } ] } }'