结构化输出集成¶
欢迎来到Instructor集成指南。本节提供了关于与各种AI模型提供商使用结构化输出的详细信息。
支持的提供商¶
Instructor 支持多种 AI 模型提供商,每个提供商都有其独特的功能和特点:
OpenAI兼容模型¶
- OpenAI - GPT-3.5,GPT-4,以及其他OpenAI模型
- Azure OpenAI - 微软的Azure托管OpenAI模型
开源与自托管模型¶
- Ollama - 在本地运行开源模型
- llama-cpp-python - llama.cpp的Python绑定
- Together AI - 托管和运行开源模型
- Cortex - 使用Cortex运行开源模型
云AI提供商¶
- Anthropic - Claude 和 Claude 2 模型
- Google - PaLM 和 Gemini 模型
- Vertex AI - 谷歌云的人工智能平台
- Cohere - Command-R 和其他 Cohere 模型
- Groq - 高性能推理平台
- Mistral - Mistral的托管模型
- 烟花 - 高性能模型推理
- Cerebras - Llama-3-70B 和其他开源模型,推理速度极快
- Writer - Palmyra-X-004 和其他 Writer 模型
- DeepSeek - DeepSeek编码器和DeepSeek聊天模型
模型管理¶
- LiteLLM - 多个供应商的统一接口
常见概念¶
所有集成共享一些共同的概念:
需要帮助吗?¶
如果您需要有关特定集成的帮助:
- 检查提供商特定的文档
- 查看示例
- 查看我们的 GitHub 问题
- 加入我们的 Discord 社区