camel.types 包#
子模块#
camel.types.enums 模块#
- class camel.types.enums.AudioModelType(value)[来源]#
基础类:
Enum一个枚举。
- TTS_1 = 'tts-1'#
- TTS_1_HD = 'tts-1-hd'#
- property is_openai: bool#
返回该类型的音频模型是否为OpenAI发布的模型。
- class camel.types.enums.EmbeddingModelType(value)[来源]#
基础类:
Enum一个枚举类型。
- JINA_CLIP_V2 = 'jina-clip-v2'#
- JINA_COLBERT_V2 = 'jina-colbert-v2'#
- JINA_EMBEDDINGS_V2_BASE_CODE = 'jina-embeddings-v2-base-code'#
- JINA_EMBEDDINGS_V3 = 'jina-embeddings-v3'#
- MISTRAL_EMBED = 'mistral-embed'#
- TEXT_EMBEDDING_3_LARGE = 'text-embedding-3-large'#
- TEXT_EMBEDDING_3_SMALL = 'text-embedding-3-small'#
- TEXT_EMBEDDING_ADA_2 = 'text-embedding-ada-002'#
- property is_jina: bool#
返回该类型模型是否为Jina模型。
- property is_mistral: bool#
返回该类型模型是否为Mistral发布的模型。
- property is_openai: bool#
返回该类型模型是否为OpenAI发布的模型。
- property output_dim: int#
- class camel.types.enums.HuggingFaceRepoType(value)[来源]#
基类:
str,Enum一个枚举类型。
- DATASET = 'dataset'#
- MODEL = 'model'#
- SPACE = 'space'#
- class camel.types.enums.JinaReturnFormat(value)[来源]#
基础类:
Enum一个枚举类型。
- DEFAULT = None#
- HTML = 'html'#
- MARKDOWN = 'markdown'#
- TEXT = 'text'#
- class camel.types.enums.ModelPlatformType(value)[来源]#
基础类:
Enum一个枚举类型。
- AIML = 'aiml'#
- ANTHROPIC = 'anthropic'#
- AZURE = 'azure'#
- COHERE = 'cohere'#
- DEEPSEEK = 'deepseek'#
- DEFAULT = 'openai'#
- GEMINI = 'gemini'#
- GROQ = 'groq'#
- INTERNLM = 'internlm'#
- LITELLM = 'litellm'#
- MISTRAL = 'mistral'#
- MODELSCOPE = 'modelscope'#
- MOONSHOT = 'moonshot'#
- NVIDIA = 'nvidia'#
- OLLAMA = 'ollama'#
- OPENAI = 'openai'#
- OPENAI_COMPATIBLE_MODEL = 'openai-compatible-model'#
- OPENROUTER = 'openrouter'#
- PPIO = 'ppio'#
- QWEN = 'tongyi-qianwen'#
- REKA = 'reka'#
- SAMBA = 'samba-nova'#
- SGLANG = 'sglang'#
- SILICONFLOW = 'siliconflow'#
- TOGETHER = 'together'#
- VLLM = 'vllm'#
- VOLCANO = 'volcano'#
- YI = 'lingyiwanwu'#
- ZHIPU = 'zhipuai'#
- property is_aiml: bool#
返回该平台是否为AIML。
- property is_anthropic: bool#
返回该平台是否属于anthropic。
- property is_azure: bool#
返回该平台是否为azure。
- property is_cohere: bool#
返回该平台是否为Cohere。
- property is_deepseek: bool#
返回当前平台是否为DeepSeek。
- property is_gemini: bool#
返回该平台是否为Gemini。
- property is_groq: bool#
返回当前平台是否为groq。
- property is_internlm: bool#
返回当前平台是否为InternLM。
- property is_litellm: bool#
返回当前平台是否为litellm。
- property is_mistral: bool#
返回该平台是否为mistral。
- property is_modelscope: bool#
返回该平台是否为ModelScope模型。
- property is_moonshot: bool#
返回该平台是否为Moonshot模型。
- property is_nvidia: bool#
返回当前平台是否为Nvidia。
- property is_ollama: bool#
返回当前平台是否为ollama。
- property is_openai: bool#
返回该平台是否为openai。
- property is_openai_compatible_model: bool#
返回当前平台是否支持OpenAI兼容性
- property is_openrouter: bool#
返回该平台是否为openrouter。
- property is_ppio: bool#
返回当前平台是否为PPIO。
- property is_qwen: bool#
返回当前平台是否为Qwen。
- property is_reka: bool#
返回当前平台是否为Reka。
- property is_samba: bool#
返回当前平台是否为Samba Nova。
- property is_sglang: bool#
返回该平台是否为sglang。
- property is_siliconflow: bool#
返回当前平台是否为SiliconFlow。
- property is_together: bool#
返回该平台是否处于协同状态。
- property is_vllm: bool#
返回该平台是否为vllm。
- property is_volcano: bool#
返回此平台是否为volcano。
- property is_yi: bool#
返回当前平台是否为Yi。
- property is_zhipuai: bool#
返回当前平台是否为zhipu。
- class camel.types.enums.OpenAIBackendRole(value)[来源]#
基础类:
Enum一个枚举。
- ASSISTANT = 'assistant'#
- DEVELOPER = 'developer'#
- FUNCTION = 'function'#
- SYSTEM = 'system'#
- TOOL = 'tool'#
- USER = 'user'#
- class camel.types.enums.OpenAIImageType(value)[来源]#
基础类:
EnumOpenAI视觉模型支持的图像类型。
- GIF = 'gif'#
- JPEG = 'jpeg'#
- JPG = 'jpg'#
- PNG = 'png'#
- WEBP = 'webp'#
- class camel.types.enums.OpenAIVisionDetailType(value)[来源]#
基础类:
Enum一个枚举。
- AUTO = 'auto'#
- HIGH = 'high'#
- LOW = 'low'#
- class camel.types.enums.OpenAPIName(value)[来源]#
基础类:
Enum一个枚举。
- BIZTOC = 'biztoc'#
- COURSERA = 'coursera'#
- CREATE_QR_CODE = 'create_qr_code'#
- KLARNA = 'klarna'#
- NASA_APOD = 'nasa_apod'#
- OUTSCHOOL = 'outschool'#
- SPEAK = 'speak'#
- WEB_SCRAPER = 'web_scraper'#
- class camel.types.enums.RoleType(value)[来源]#
基础类:
Enum一个枚举。
- ASSISTANT = 'assistant'#
- CRITIC = 'critic'#
- DEFAULT = 'default'#
- EMBODIMENT = 'embodiment'#
- USER = 'user'#
- class camel.types.enums.StorageType(value)[来源]#
基础类:
Enum一个枚举。
- MILVUS = 'milvus'#
- QDRANT = 'qdrant'#
- TIDB = 'tidb'#
- class camel.types.enums.TaskType(value)[来源]#
基础类:
Enum一个枚举。
- AI_SOCIETY = 'ai_society'#
- CODE = 'code'#
- DEFAULT = 'default'#
- EVALUATION = 'evaluation'#
- GENERATE_TEXT_EMBEDDING_DATA = 'generate_text_embedding_data'#
- IMAGE_CRAFT = 'image_craft'#
- MISALIGNMENT = 'misalignment'#
- MULTI_CONDITION_IMAGE_CRAFT = 'multi_condition_image_craft'#
- OBJECT_RECOGNITION = 'object_recognition'#
- ROLE_DESCRIPTION = 'role_description'#
- SOLUTION_EXTRACTION = 'solution_extraction'#
- TRANSLATION = 'translation'#
- VIDEO_DESCRIPTION = 'video_description'#
camel.types.openai_types 模块#
- class camel.types.openai_types.ChatCompletion(**data: Any)[来源]#
基类:
BaseModel- created: int#
聊天完成时创建的Unix时间戳(以秒为单位)。
- id: str#
聊天完成的唯一标识符。
- model: str#
用于聊天完成的模型。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- object: Literal['chat.completion']#
对象类型,始终为chat.completion。
- service_tier: Literal['scale', 'default'] | None#
用于处理请求的服务层级。
- system_fingerprint: str | None#
此指纹代表模型运行时的后端配置。
可以与seed请求参数结合使用,以了解后端何时进行了可能影响确定性的更改。
- usage: CompletionUsage | None#
完成请求的使用统计信息。
- class camel.types.openai_types.ChatCompletionAssistantMessageParam[来源]#
基类:
TypedDict- audio: Audio | None#
关于模型先前音频响应的数据。
- content: str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartRefusalParam] | None#
助手消息的内容。
除非指定了 tool_calls 或 function_call,否则为必填项。
- function_call: FunctionCall | None#
已弃用,由tool_calls替代。
一个应该被调用的函数的名称和参数,由模型生成。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- refusal: str | None#
助手的拒绝消息。
- role: Required[Literal['assistant']]#
消息作者的角色,在这个例子中是assistant。
- tool_calls: Iterable[ChatCompletionMessageToolCallParam]#
模型生成的工具调用,例如函数调用。
- class camel.types.openai_types.ChatCompletionChunk(**data: Any)[来源]#
基类:
BaseModel- choices: List[Choice]#
聊天完成选项的列表。
如果n大于1,可以包含多个元素。如果设置了stream_options: {“include_usage”: true},最后一个块也可能为空。
- created: int#
聊天完成时创建的Unix时间戳(以秒为单位)。
每个数据块具有相同的时间戳。
- id: str#
聊天完成的唯一标识符。每个数据块具有相同的ID。
- model: str#
用于生成补全的模型。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- object: Literal['chat.completion.chunk']#
对象类型,始终为chat.completion.chunk。
- service_tier: Literal['scale', 'default'] | None#
用于处理请求的服务层级。
- system_fingerprint: str | None#
该指纹代表模型运行时的后端配置。可以与seed请求参数结合使用,用于识别何时进行了可能影响确定性的后端更改。
- usage: CompletionUsage | None#
这是一个可选字段,仅当您在请求中设置stream_options: {“include_usage”: true}时才会出现。当该字段存在时,其值为空除了最后一个数据块,最后一个数据块包含整个请求的token使用统计信息。
注意:如果流被中断或取消,您可能无法接收到包含请求总令牌用量的最终使用数据块。
- class camel.types.openai_types.ChatCompletionMessage(**data: Any)[来源]#
基类:
BaseModel- annotations: List[Annotation] | None#
消息的注释(如适用),例如在使用[web搜索工具](https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat)时。
- audio: ChatCompletionAudio | None#
如果请求了音频输出模式,该对象包含来自模型的音频响应数据。 [了解更多](https://platform.openai.com/docs/guides/audio)。
- content: str | None#
消息的内容。
- function_call: FunctionCall | None#
已弃用,由tool_calls替代。
一个应该被调用的函数的名称和参数,由模型生成。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- refusal: str | None#
模型生成的拒绝消息。
- role: Literal['assistant']#
这条消息作者的角色。
- tool_calls: List[ChatCompletionMessageToolCall] | None#
模型生成的工具调用,例如函数调用。
- class camel.types.openai_types.ChatCompletionMessageToolCall(**data: Any)[来源]#
基类:
BaseModel- function: Function#
模型调用的函数。
- id: str#
工具调用的ID。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- type: Literal['function']#
工具的类型。目前仅支持function。
- class camel.types.openai_types.ChatCompletionSystemMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#
系统消息的内容。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- role: Required[Literal['system']]#
消息作者的角色,在本例中为system。
- class camel.types.openai_types.ChatCompletionToolMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#
工具消息的内容。
- role: Required[Literal['tool']]#
消息作者的角色,在本例中为工具。
- tool_call_id: Required[str]#
此消息所回应的工具调用。
- class camel.types.openai_types.ChatCompletionUserMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartImageParam | ChatCompletionContentPartInputAudioParam | File]]#
用户消息的内容。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- role: Required[Literal['user']]#
消息作者的角色,在本例中为用户。
- class camel.types.openai_types.Choice(**data: Any)[来源]#
基类:
BaseModel- finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call']#
模型停止生成token的原因。
如果模型遇到自然停止点或提供的停止序列,则为stop;如果达到请求中指定的最大令牌数,则为length;如果由于内容过滤器的标记而省略了内容,则为content_filter;如果模型调用了工具,则为tool_calls;如果模型调用了函数,则为function_call(已弃用)。
- index: int#
选项列表中该选项的索引。
- logprobs: ChoiceLogprobs | None#
选择的对数概率信息。
- message: ChatCompletionMessage#
由模型生成的聊天完成消息。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- class camel.types.openai_types.CompletionUsage(**data: Any)[来源]#
基类:
BaseModel- completion_tokens: int#
生成完成中的令牌数量。
- completion_tokens_details: CompletionTokensDetails | None#
完成中使用的令牌分解。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- prompt_tokens: int#
提示中的令牌数量。
- prompt_tokens_details: PromptTokensDetails | None#
提示中使用的令牌细分。
- total_tokens: int#
请求中使用的令牌总数(提示+完成)。
- class camel.types.openai_types.NotGiven#
基类:
object一个哨兵单例类,用于区分省略的关键字参数与那些传入值为None的参数(可能有不同的行为)。
例如:
```py def get(timeout: Union[int, NotGiven, None] = NotGiven()) -> Response: …
get(timeout=1) # 1秒超时 get(timeout=None) # 无超时 get() # 默认超时行为,在方法定义时可能无法静态确定。 ```
- class camel.types.openai_types.ParsedChatCompletion(*, id: str, choices: List[ParsedChoice], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#
基类:
ChatCompletion,GenericModel,Generic[ContentType]- choices: List[ParsedChoice]#
聊天完成选项的列表。
如果n大于1,可能会有多个。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
模块内容#
- class camel.types.AudioModelType(value)[来源]#
基础类:
Enum一个枚举。
- TTS_1 = 'tts-1'#
- TTS_1_HD = 'tts-1-hd'#
- property is_openai: bool#
返回该类型的音频模型是否为OpenAI发布的模型。
- class camel.types.ChatCompletion(*, id: str, choices: List[选择], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#
基类:
BaseModel- created: int#
聊天完成时创建的Unix时间戳(以秒为单位)。
- id: str#
聊天完成的唯一标识符。
- model: str#
用于聊天完成的模型。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- object: Literal['chat.completion']#
对象类型,始终为chat.completion。
- service_tier: Literal['scale', 'default'] | None#
用于处理请求的服务层级。
- system_fingerprint: str | None#
此指纹代表模型运行时的后端配置。
可以与seed请求参数结合使用,用于了解后端何时进行了可能影响确定性的更改。
- usage: CompletionUsage | None#
完成请求的使用统计信息。
- class camel.types.ChatCompletionAssistantMessageParam[来源]#
基类:
TypedDict- audio: Audio | None#
关于模型先前音频响应的数据。
- content: str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartRefusalParam] | None#
助手消息的内容。
除非指定了 tool_calls 或 function_call,否则为必填项。
- function_call: FunctionCall | None#
已弃用,由tool_calls替代。
一个应该被调用的函数的名称和参数,由模型生成。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- refusal: str | None#
助手的拒绝消息。
- role: Required[Literal['assistant']]#
消息作者的角色,在这个例子中是assistant。
- tool_calls: Iterable[ChatCompletionMessageToolCallParam]#
模型生成的工具调用,例如函数调用。
- class camel.types.ChatCompletionChunk(*, id: str, choices: List[Choice], created: int, model: str, object: Literal['chat.completion.chunk'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#
基类:
BaseModel- choices: List[Choice]#
聊天完成选项的列表。
如果n大于1,可以包含多个元素。如果设置了stream_options: {“include_usage”: true},最后一个块也可能为空。
- created: int#
聊天完成时创建的Unix时间戳(以秒为单位)。
每个数据块具有相同的时间戳。
- id: str#
聊天完成的唯一标识符。每个数据块具有相同的ID。
- model: str#
用于生成补全的模型。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- object: Literal['chat.completion.chunk']#
对象类型,始终为chat.completion.chunk。
- service_tier: Literal['scale', 'default'] | None#
用于处理请求的服务层级。
- system_fingerprint: str | None#
该指纹代表模型运行时的后端配置。可以与seed请求参数结合使用,用于识别何时进行了可能影响确定性的后端更改。
- usage: CompletionUsage | None#
这是一个可选字段,仅当您在请求中设置stream_options: {“include_usage”: true}时才会出现。当该字段存在时,其值为空除了最后一个数据块,最后一个数据块包含整个请求的token使用统计信息。
注意:如果流被中断或取消,您可能无法接收到包含请求总令牌用量的最终使用数据块。
- class camel.types.ChatCompletionMessage(*, content: str | None = None, refusal: str | None = None, role: Literal['assistant'], annotations: List[Annotation] | None = None, audio: ChatCompletionAudio | None = None, function_call: FunctionCall | None = None, tool_calls: List[ChatCompletionMessageToolCall] | None = None, **extra_data: Any)[来源]#
基类:
BaseModel- annotations: List[Annotation] | None#
消息的注释(如适用),例如在使用[web搜索工具](https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat)时。
- audio: ChatCompletionAudio | None#
如果请求了音频输出模式,该对象包含来自模型的音频响应数据。 [了解更多](https://platform.openai.com/docs/guides/audio)。
- content: str | None#
消息的内容。
- function_call: FunctionCall | None#
已弃用,由tool_calls替代。
一个应该被调用的函数的名称和参数,由模型生成。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- refusal: str | None#
模型生成的拒绝消息。
- role: Literal['assistant']#
这条消息作者的角色。
- tool_calls: List[ChatCompletionMessageToolCall] | None#
模型生成的工具调用,例如函数调用。
- class camel.types.ChatCompletionMessageToolCall(*, id: str, function: Function, type: Literal['function'], **extra_data: Any)[来源]#
基类:
BaseModel- function: Function#
模型调用的函数。
- id: str#
工具调用的ID。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- type: Literal['function']#
工具的类型。目前仅支持function。
- class camel.types.ChatCompletionSystemMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#
系统消息的内容。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- role: Required[Literal['system']]#
消息作者的角色,在本例中为system。
- class camel.types.ChatCompletionToolMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#
工具消息的内容。
- role: Required[Literal['tool']]#
消息作者的角色,在本例中为工具。
- tool_call_id: Required[str]#
此消息所回应的工具调用。
- class camel.types.ChatCompletionUserMessageParam[来源]#
基类:
TypedDict- content: Required[str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartImageParam | ChatCompletionContentPartInputAudioParam | File]]#
用户消息的内容。
- name: str#
参与者的可选名称。
提供模型信息以区分同一角色的不同参与者。
- role: Required[Literal['user']]#
消息作者的角色,在本例中为用户。
- class camel.types.Choice(*, finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call'], index: int, logprobs: ChoiceLogprobs | None = None, message: ChatCompletionMessage, **extra_data: Any)[来源]#
基类:
BaseModel- finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call']#
模型停止生成token的原因。
如果模型遇到自然停止点或提供的停止序列,则为stop;如果达到请求中指定的最大令牌数,则为length;如果由于内容过滤器的标记而省略了内容,则为content_filter;如果模型调用了工具,则为tool_calls;如果模型调用了函数,则为function_call(已弃用)。
- index: int#
选项列表中该选项的索引。
- logprobs: ChoiceLogprobs | None#
选择的对数概率信息。
- message: ChatCompletionMessage#
由模型生成的聊天完成消息。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- class camel.types.CompletionUsage(*, completion_tokens: int, prompt_tokens: int, total_tokens: int, completion_tokens_details: CompletionTokensDetails | None = None, prompt_tokens_details: PromptTokensDetails | None = None, **extra_data: Any)[来源]#
基类:
BaseModel- completion_tokens: int#
生成完成中的令牌数量。
- completion_tokens_details: CompletionTokensDetails | None#
完成中使用的令牌分解。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- prompt_tokens: int#
提示中的令牌数量。
- prompt_tokens_details: PromptTokensDetails | None#
提示中使用的令牌细分。
- total_tokens: int#
请求中使用的令牌总数(提示+完成)。
- class camel.types.EmbeddingModelType(value)[来源]#
基础类:
Enum一个枚举。
- JINA_CLIP_V2 = 'jina-clip-v2'#
- JINA_COLBERT_V2 = 'jina-colbert-v2'#
- JINA_EMBEDDINGS_V2_BASE_CODE = 'jina-embeddings-v2-base-code'#
- JINA_EMBEDDINGS_V3 = 'jina-embeddings-v3'#
- MISTRAL_EMBED = 'mistral-embed'#
- TEXT_EMBEDDING_3_LARGE = 'text-embedding-3-large'#
- TEXT_EMBEDDING_3_SMALL = 'text-embedding-3-small'#
- TEXT_EMBEDDING_ADA_2 = 'text-embedding-ada-002'#
- property is_jina: bool#
返回该类型模型是否为Jina模型。
- property is_mistral: bool#
返回该类型模型是否为Mistral发布的模型。
- property is_openai: bool#
返回该类型模型是否为OpenAI发布的模型。
- property output_dim: int#
- class camel.types.HuggingFaceRepoType(value)[来源]#
基类:
str,Enum一个枚举。
- DATASET = 'dataset'#
- MODEL = 'model'#
- SPACE = 'space'#
- class camel.types.ModelPlatformType(value)[来源]#
基础类:
Enum一个枚举。
- AIML = 'aiml'#
- ANTHROPIC = 'anthropic'#
- AZURE = 'azure'#
- COHERE = 'cohere'#
- DEEPSEEK = 'deepseek'#
- DEFAULT = 'openai'#
- GEMINI = 'gemini'#
- GROQ = 'groq'#
- INTERNLM = 'internlm'#
- LITELLM = 'litellm'#
- MISTRAL = 'mistral'#
- MODELSCOPE = 'modelscope'#
- MOONSHOT = 'moonshot'#
- NVIDIA = 'nvidia'#
- OLLAMA = 'ollama'#
- OPENAI = 'openai'#
- OPENAI_COMPATIBLE_MODEL = 'openai-compatible-model'#
- OPENROUTER = 'openrouter'#
- PPIO = 'ppio'#
- QWEN = 'tongyi-qianwen'#
- REKA = 'reka'#
- SAMBA = 'samba-nova'#
- SGLANG = 'sglang'#
- SILICONFLOW = 'siliconflow'#
- TOGETHER = 'together'#
- VLLM = 'vllm'#
- VOLCANO = 'volcano'#
- YI = 'lingyiwanwu'#
- ZHIPU = 'zhipuai'#
- property is_aiml: bool#
返回该平台是否为AIML。
- property is_anthropic: bool#
返回该平台是否属于anthropic。
- property is_azure: bool#
返回该平台是否为azure。
- property is_cohere: bool#
返回该平台是否为Cohere。
- property is_deepseek: bool#
返回当前平台是否为DeepSeek。
- property is_gemini: bool#
返回该平台是否为Gemini。
- property is_groq: bool#
返回当前平台是否为groq。
- property is_internlm: bool#
返回当前平台是否为InternLM。
- property is_litellm: bool#
返回当前平台是否为litellm。
- property is_mistral: bool#
返回该平台是否为mistral。
- property is_modelscope: bool#
返回该平台是否为ModelScope模型。
- property is_moonshot: bool#
返回该平台是否为Moonshot模型。
- property is_nvidia: bool#
返回当前平台是否为Nvidia。
- property is_ollama: bool#
返回当前平台是否为ollama。
- property is_openai: bool#
返回该平台是否为openai。
- property is_openai_compatible_model: bool#
返回当前平台是否支持OpenAI兼容性
- property is_openrouter: bool#
返回该平台是否为openrouter。
- property is_ppio: bool#
返回当前平台是否为PPIO。
- property is_qwen: bool#
返回当前平台是否为Qwen。
- property is_reka: bool#
返回当前平台是否为Reka。
- property is_samba: bool#
返回当前平台是否为Samba Nova。
- property is_sglang: bool#
返回该平台是否为sglang。
- property is_siliconflow: bool#
返回当前平台是否为SiliconFlow。
- property is_together: bool#
返回该平台是否处于协同状态。
- property is_vllm: bool#
返回该平台是否为vllm。
- property is_volcano: bool#
返回此平台是否为volcano。
- property is_yi: bool#
返回当前平台是否为Yi。
- property is_zhipuai: bool#
返回当前平台是否为zhipu。
- class camel.types.ModelType(value)#
基类:
UnifiedModelType,Enum一个枚举。
- AIML_MISTRAL_7B_INSTRUCT = ModelType.AIML_MISTRAL_7B_INSTRUCT#
- AIML_MIXTRAL_8X7B = ModelType.AIML_MIXTRAL_8X7B#
- CLAUDE_2_0 = ModelType.CLAUDE_2_0#
- CLAUDE_2_1 = ModelType.CLAUDE_2_1#
- CLAUDE_3_5_HAIKU = ModelType.CLAUDE_3_5_HAIKU#
- CLAUDE_3_5_SONNET = ModelType.CLAUDE_3_5_SONNET#
- CLAUDE_3_7_SONNET = ModelType.CLAUDE_3_7_SONNET#
- CLAUDE_3_HAIKU = ModelType.CLAUDE_3_HAIKU#
- CLAUDE_3_OPUS = ModelType.CLAUDE_3_OPUS#
- CLAUDE_3_SONNET = ModelType.CLAUDE_3_SONNET#
- CLAUDE_INSTANT_1_2 = ModelType.CLAUDE_INSTANT_1_2#
- COHERE_COMMAND = ModelType.COHERE_COMMAND#
- COHERE_COMMAND_LIGHT = ModelType.COHERE_COMMAND_LIGHT#
- COHERE_COMMAND_NIGHTLY = ModelType.COHERE_COMMAND_NIGHTLY#
- COHERE_COMMAND_R = ModelType.COHERE_COMMAND_R#
- COHERE_COMMAND_R_PLUS = ModelType.COHERE_COMMAND_R_PLUS#
- DEEPSEEK_CHAT = ModelType.DEEPSEEK_CHAT#
- DEEPSEEK_REASONER = ModelType.DEEPSEEK_REASONER#
- DEFAULT = ModelType.GPT_4O_MINI#
- GEMINI_1_5_FLASH = ModelType.GEMINI_1_5_FLASH#
- GEMINI_1_5_PRO = ModelType.GEMINI_1_5_PRO#
- GEMINI_2_0_FLASH = ModelType.GEMINI_2_0_FLASH#
- GEMINI_2_0_FLASH_LITE_PREVIEW = ModelType.GEMINI_2_0_FLASH_LITE_PREVIEW#
- GEMINI_2_0_FLASH_THINKING = ModelType.GEMINI_2_0_FLASH_THINKING#
- GEMINI_2_0_PRO_EXP = ModelType.GEMINI_2_0_PRO_EXP#
- GEMINI_2_5_PRO_EXP = ModelType.GEMINI_2_5_PRO_EXP#
- GLM_3_TURBO = ModelType.GLM_3_TURBO#
- GLM_4 = ModelType.GLM_4#
- GLM_4V = ModelType.GLM_4V#
- GLM_4V_FLASH = ModelType.GLM_4V_FLASH#
- GLM_4V_PLUS_0111 = ModelType.GLM_4V_PLUS_0111#
- GLM_4_AIR = ModelType.GLM_4_AIR#
- GLM_4_AIRX = ModelType.GLM_4_AIRX#
- GLM_4_AIR_0111 = ModelType.GLM_4_AIR_0111#
- GLM_4_FLASH = ModelType.GLM_4_FLASH#
- GLM_4_FLASHX = ModelType.GLM_4_FLASHX#
- GLM_4_LONG = ModelType.GLM_4_LONG#
- GLM_4_PLUS = ModelType.GLM_4_PLUS#
- GLM_ZERO_PREVIEW = ModelType.GLM_ZERO_PREVIEW#
- GPT_3_5_TURBO = ModelType.GPT_3_5_TURBO#
- GPT_4 = ModelType.GPT_4#
- GPT_4O = ModelType.GPT_4O#
- GPT_4O_MINI = ModelType.GPT_4O_MINI#
- GPT_4_1 = ModelType.GPT_4_1#
- GPT_4_1_MINI = ModelType.GPT_4_1_MINI#
- GPT_4_1_NANO = ModelType.GPT_4_1_NANO#
- GPT_4_5_PREVIEW = ModelType.GPT_4_5_PREVIEW#
- GPT_4_TURBO = ModelType.GPT_4_TURBO#
- GROQ_GEMMA_2_9B_IT = ModelType.GROQ_GEMMA_2_9B_IT#
- GROQ_LLAMA_3_1_8B = ModelType.GROQ_LLAMA_3_1_8B#
- GROQ_LLAMA_3_3_70B = ModelType.GROQ_LLAMA_3_3_70B#
- GROQ_LLAMA_3_3_70B_PREVIEW = ModelType.GROQ_LLAMA_3_3_70B_PREVIEW#
- GROQ_LLAMA_3_70B = ModelType.GROQ_LLAMA_3_70B#
- GROQ_LLAMA_3_8B = ModelType.GROQ_LLAMA_3_8B#
- GROQ_MIXTRAL_8_7B = ModelType.GROQ_MIXTRAL_8_7B#
- INTERNLM2_5_LATEST = ModelType.INTERNLM2_5_LATEST#
- INTERNLM2_PRO_CHAT = ModelType.INTERNLM2_PRO_CHAT#
- INTERNLM3_8B_INSTRUCT = ModelType.INTERNLM3_8B_INSTRUCT#
- INTERNLM3_LATEST = ModelType.INTERNLM3_LATEST#
- MISTRAL_3B = ModelType.MISTRAL_3B#
- MISTRAL_7B = ModelType.MISTRAL_7B#
- MISTRAL_8B = ModelType.MISTRAL_8B#
- MISTRAL_CODESTRAL = ModelType.MISTRAL_CODESTRAL#
- MISTRAL_CODESTRAL_MAMBA = ModelType.MISTRAL_CODESTRAL_MAMBA#
- MISTRAL_LARGE = ModelType.MISTRAL_LARGE#
- MISTRAL_MIXTRAL_8x22B = ModelType.MISTRAL_MIXTRAL_8x22B#
- MISTRAL_MIXTRAL_8x7B = ModelType.MISTRAL_MIXTRAL_8x7B#
- MISTRAL_NEMO = ModelType.MISTRAL_NEMO#
- MISTRAL_PIXTRAL_12B = ModelType.MISTRAL_PIXTRAL_12B#
- MODELSCOPE_DEEPSEEK_V3_0324 = ModelType.MODELSCOPE_DEEPSEEK_V3_0324#
- MODELSCOPE_LLAMA_3_1_405B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_405B_INSTRUCT#
- MODELSCOPE_LLAMA_3_1_70B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_70B_INSTRUCT#
- MODELSCOPE_LLAMA_3_1_8B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_8B_INSTRUCT#
- MODELSCOPE_LLAMA_3_3_70B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_3_70B_INSTRUCT#
- MODELSCOPE_MINISTRAL_8B_INSTRUCT = ModelType.MODELSCOPE_MINISTRAL_8B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_14B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_72B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_CODER_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_14B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_CODER_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_32B_INSTRUCT#
- MODELSCOPE_QWEN_2_5_CODER_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_7B_INSTRUCT#
- MODELSCOPE_QWQ_32B = ModelType.MODELSCOPE_QWQ_32B#
- MODELSCOPE_QWQ_32B_PREVIEW = ModelType.MODELSCOPE_QWQ_32B_PREVIEW#
- MOONSHOT_V1_128K = ModelType.MOONSHOT_V1_128K#
- MOONSHOT_V1_32K = ModelType.MOONSHOT_V1_32K#
- MOONSHOT_V1_8K = ModelType.MOONSHOT_V1_8K#
- NVIDIA_LLAMA3_1_405B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_405B_INSTRUCT#
- NVIDIA_LLAMA3_1_70B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_70B_INSTRUCT#
- NVIDIA_LLAMA3_1_8B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_8B_INSTRUCT#
- NVIDIA_LLAMA3_2_1B_INSTRUCT = ModelType.NVIDIA_LLAMA3_2_1B_INSTRUCT#
- NVIDIA_LLAMA3_2_3B_INSTRUCT = ModelType.NVIDIA_LLAMA3_2_3B_INSTRUCT#
- NVIDIA_LLAMA3_3_70B_INSTRUCT = ModelType.NVIDIA_LLAMA3_3_70B_INSTRUCT#
- NVIDIA_LLAMA3_70B = ModelType.NVIDIA_LLAMA3_70B#
- NVIDIA_MISTRAL_LARGE = ModelType.NVIDIA_MISTRAL_LARGE#
- NVIDIA_MIXTRAL_8X7B = ModelType.NVIDIA_MIXTRAL_8X7B#
- NVIDIA_NEMOTRON_340B_INSTRUCT = ModelType.NVIDIA_NEMOTRON_340B_INSTRUCT#
- NVIDIA_NEMOTRON_340B_REWARD = ModelType.NVIDIA_NEMOTRON_340B_REWARD#
- NVIDIA_YI_LARGE = ModelType.NVIDIA_YI_LARGE#
- O1 = ModelType.O1#
- O1_MINI = ModelType.O1_MINI#
- O1_PREVIEW = ModelType.O1_PREVIEW#
- O3_MINI = ModelType.O3_MINI#
- OPENROUTER_LLAMA_3_1_405B = ModelType.OPENROUTER_LLAMA_3_1_405B#
- OPENROUTER_LLAMA_3_1_70B = ModelType.PPIO_LLAMA_3_1_70B#
- OPENROUTER_LLAMA_4_MAVERICK = ModelType.OPENROUTER_LLAMA_4_MAVERICK#
- OPENROUTER_LLAMA_4_MAVERICK_FREE = ModelType.OPENROUTER_LLAMA_4_MAVERICK_FREE#
- OPENROUTER_LLAMA_4_SCOUT = ModelType.OPENROUTER_LLAMA_4_SCOUT#
- OPENROUTER_LLAMA_4_SCOUT_FREE = ModelType.OPENROUTER_LLAMA_4_SCOUT_FREE#
- OPENROUTER_OLYMPICODER_7B = ModelType.OPENROUTER_OLYMPICODER_7B#
- PPIO_BAICHUAN_2_13B_CHAT = ModelType.PPIO_BAICHUAN_2_13B_CHAT#
- PPIO_DEEPSEEK_R1 = ModelType.PPIO_DEEPSEEK_R1#
- PPIO_DEEPSEEK_R1_COMMUNITY = ModelType.PPIO_DEEPSEEK_R1_COMMUNITY#
- PPIO_DEEPSEEK_R1_TURBO = ModelType.PPIO_DEEPSEEK_R1_TURBO#
- PPIO_DEEPSEEK_V3 = ModelType.PPIO_DEEPSEEK_V3#
- PPIO_DEEPSEEK_V3_COMMUNITY = ModelType.PPIO_DEEPSEEK_V3_COMMUNITY#
- PPIO_DEEPSEEK_V3_TURBO = ModelType.PPIO_DEEPSEEK_V3_TURBO#
- PPIO_LLAMA_3_1_70B = ModelType.PPIO_LLAMA_3_1_70B#
- PPIO_LLAMA_3_3_70B = ModelType.PPIO_LLAMA_3_3_70B#
- PPIO_QWEN_2_5_72B = ModelType.PPIO_QWEN_2_5_72B#
- PPIO_YI_1_5_34B_CHAT = ModelType.PPIO_YI_1_5_34B_CHAT#
- QWEN_2_5_14B = ModelType.QWEN_2_5_14B#
- QWEN_2_5_32B = ModelType.QWEN_2_5_32B#
- QWEN_2_5_72B = ModelType.QWEN_2_5_72B#
- QWEN_2_5_CODER_32B = ModelType.QWEN_2_5_CODER_32B#
- QWEN_2_5_VL_72B = ModelType.QWEN_2_5_VL_72B#
- QWEN_CODER_TURBO = ModelType.QWEN_CODER_TURBO#
- QWEN_LONG = ModelType.QWEN_LONG#
- QWEN_MATH_PLUS = ModelType.QWEN_MATH_PLUS#
- QWEN_MATH_TURBO = ModelType.QWEN_MATH_TURBO#
- QWEN_MAX = ModelType.QWEN_MAX#
- QWEN_PLUS = ModelType.QWEN_PLUS#
- QWEN_QVQ_72B = ModelType.QWEN_QVQ_72B#
- QWEN_QWQ_32B = ModelType.QWEN_QWQ_32B#
- QWEN_QWQ_PLUS = ModelType.QWEN_QWQ_PLUS#
- QWEN_TURBO = ModelType.QWEN_TURBO#
- QWEN_VL_MAX = ModelType.QWEN_VL_MAX#
- QWEN_VL_PLUS = ModelType.QWEN_VL_PLUS#
- REKA_CORE = ModelType.REKA_CORE#
- REKA_EDGE = ModelType.REKA_EDGE#
- REKA_FLASH = ModelType.REKA_FLASH#
- SAMBA_LLAMA_3_1_405B = ModelType.SAMBA_LLAMA_3_1_405B#
- SAMBA_LLAMA_3_1_70B = ModelType.SAMBA_LLAMA_3_1_70B#
- SAMBA_LLAMA_3_1_8B = ModelType.SAMBA_LLAMA_3_1_8B#
- SGLANG_LLAMA_3_1_405B = ModelType.SGLANG_LLAMA_3_1_405B#
- SGLANG_LLAMA_3_1_70B = ModelType.SGLANG_LLAMA_3_1_70B#
- SGLANG_LLAMA_3_1_8B = ModelType.SGLANG_LLAMA_3_1_8B#
- SGLANG_LLAMA_3_2_1B = ModelType.SGLANG_LLAMA_3_2_1B#
- SGLANG_MISTRAL_7B = ModelType.SGLANG_MISTRAL_7B#
- SGLANG_MIXTRAL_NEMO = ModelType.SGLANG_MIXTRAL_NEMO#
- SGLANG_QWEN_2_5_32B = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
- SGLANG_QWEN_2_5_72B = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
- SGLANG_QWEN_2_5_7B = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
- SILICONFLOW_DEEPSEEK_V2_5 = ModelType.SILICONFLOW_DEEPSEEK_V2_5#
- SILICONFLOW_DEEPSEEK_V3 = ModelType.SILICONFLOW_DEEPSEEK_V3#
- SILICONFLOW_INTERN_LM2_5_20B_CHAT = ModelType.SILICONFLOW_INTERN_LM2_5_20B_CHAT#
- SILICONFLOW_INTERN_LM2_5_7B_CHAT = ModelType.SILICONFLOW_INTERN_LM2_5_7B_CHAT#
- SILICONFLOW_PRO_INTERN_LM2_5_7B_CHAT = ModelType.SILICONFLOW_PRO_INTERN_LM2_5_7B_CHAT#
- SILICONFLOW_PRO_QWEN2_5_7B_INSTRUCT = ModelType.SILICONFLOW_PRO_QWEN2_5_7B_INSTRUCT#
- SILICONFLOW_PRO_THUDM_GLM_4_9B_CHAT = ModelType.SILICONFLOW_PRO_THUDM_GLM_4_9B_CHAT#
- SILICONFLOW_QWEN2_5_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_14B_INSTRUCT#
- SILICONFLOW_QWEN2_5_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
- SILICONFLOW_QWEN2_5_72B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
- SILICONFLOW_QWEN2_5_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
- SILICONFLOW_THUDM_GLM_4_9B_CHAT = ModelType.SILICONFLOW_THUDM_GLM_4_9B_CHAT#
- STUB = ModelType.STUB#
- TOGETHER_LLAMA_3_1_405B = ModelType.TOGETHER_LLAMA_3_1_405B#
- TOGETHER_LLAMA_3_1_70B = ModelType.TOGETHER_LLAMA_3_1_70B#
- TOGETHER_LLAMA_3_1_8B = ModelType.TOGETHER_LLAMA_3_1_8B#
- TOGETHER_LLAMA_3_3_70B = ModelType.TOGETHER_LLAMA_3_3_70B#
- TOGETHER_LLAMA_4_MAVERICK = ModelType.TOGETHER_LLAMA_4_MAVERICK#
- TOGETHER_LLAMA_4_SCOUT = ModelType.TOGETHER_LLAMA_4_SCOUT#
- TOGETHER_MISTRAL_7B = ModelType.AIML_MISTRAL_7B_INSTRUCT#
- TOGETHER_MIXTRAL_8_7B = ModelType.AIML_MIXTRAL_8X7B#
- YI_LARGE = ModelType.YI_LARGE#
- YI_LARGE_FC = ModelType.YI_LARGE_FC#
- YI_LARGE_RAG = ModelType.YI_LARGE_RAG#
- YI_LARGE_TURBO = ModelType.YI_LARGE_TURBO#
- YI_LIGHTNING = ModelType.YI_LIGHTNING#
- YI_MEDIUM = ModelType.YI_MEDIUM#
- YI_MEDIUM_200K = ModelType.YI_MEDIUM_200K#
- YI_SPARK = ModelType.YI_SPARK#
- YI_VISION = ModelType.YI_VISION#
- property is_aiml: bool#
- property is_anthropic: bool#
返回该类型模型是否为Anthropic发布的模型。
- Returns:
这类模型是否具有拟人化特征。
- Return type:
布尔值
- property is_azure_openai: bool#
返回该类型模型是否为Azure发布的OpenAI模型。
- property is_cohere: bool#
返回该类型模型是否为Cohere模型。
- Returns:
这种类型的模型是否是Cohere。
- Return type:
布尔值
- property is_deepseek: bool#
- property is_gemini: bool#
返回该类型模型是否为Gemini模型。
- Returns:
这种类型的模型是否是gemini。
- Return type:
布尔值
- property is_groq: bool#
返回该类型模型是否由Groq提供服务。
- property is_internlm: bool#
返回该模型是否为InternLM模型。
- property is_mistral: bool#
返回该类型模型是否由Mistral提供服务。
- property is_modelscope: bool#
返回该模型是否为ModelScope托管的模型。
- property is_moonshot: bool#
返回该平台是否为Moonshot模型。
- property is_nvidia: bool#
返回该类型模型是否为NVIDIA模型。
- property is_openai: bool#
返回该类型模型是否为OpenAI发布的模型。
- property is_openrouter: bool#
返回该类型模型是否由OpenRouter提供服务。
- property is_ppio: bool#
返回该模型是否为PPIO服务的模型。
- property is_qwen: bool#
返回该模型是否为Qwen模型。
- property is_reka: bool#
返回该类型模型是否为Reka模型。
- Returns:
这种类型的模型是否是Reka。
- Return type:
布尔值
- property is_sambanova: bool#
返回该类型模型是否由SambaNova AI提供服务。
- property is_sglang: bool#
- property is_siliconflow: bool#
- property is_together: bool#
返回该类型模型是否由Together AI提供服务。
- property is_yi: bool#
返回该类型模型是否为Yi模型。
- Returns:
这种类型的模型是否是Yi。
- Return type:
布尔值
- property is_zhipuai: bool#
返回该类型模型是否为ZhipuAI模型。
- property support_native_structured_output: bool#
返回模型是否支持原生结构化输出。
- property support_native_tool_calling: bool#
返回模型是否支持原生工具调用。
- property token_limit: int#
返回给定模型的最大token限制。
- Returns:
给定模型的最大token限制。
- Return type:
int
- property value_for_tiktoken: str#
返回TikToken的模型名称。
- class camel.types.NotGiven#
基类:
object一个哨兵单例类,用于区分省略的关键字参数与那些传入值为None的参数(可能有不同的行为)。
例如:
```py def get(timeout: Union[int, NotGiven, None] = NotGiven()) -> Response: …
get(timeout=1) # 1秒超时 get(timeout=None) # 无超时 get() # 默认超时行为,在方法定义时可能无法静态确定。 ```
- class camel.types.OpenAIBackendRole(value)[来源]#
基础类:
Enum一个枚举。
- ASSISTANT = 'assistant'#
- DEVELOPER = 'developer'#
- FUNCTION = 'function'#
- SYSTEM = 'system'#
- TOOL = 'tool'#
- USER = 'user'#
- class camel.types.OpenAIImageType(value)[来源]#
基础类:
EnumOpenAI视觉模型支持的图像类型。
- GIF = 'gif'#
- JPEG = 'jpeg'#
- JPG = 'jpg'#
- PNG = 'png'#
- WEBP = 'webp'#
- class camel.types.OpenAIVisionDetailType(value)[来源]#
基础类:
Enum一个枚举。
- AUTO = 'auto'#
- HIGH = 'high'#
- LOW = 'low'#
- class camel.types.OpenAPIName(value)[来源]#
基础类:
Enum一个枚举。
- BIZTOC = 'biztoc'#
- COURSERA = 'coursera'#
- CREATE_QR_CODE = 'create_qr_code'#
- KLARNA = 'klarna'#
- NASA_APOD = 'nasa_apod'#
- OUTSCHOOL = 'outschool'#
- SPEAK = 'speak'#
- WEB_SCRAPER = 'web_scraper'#
- class camel.types.ParsedChatCompletion(*, id: str, choices: List[ParsedChoice], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#
基类:
ChatCompletion,GenericModel,Generic[ContentType]- choices: List[ParsedChoice]#
聊天完成选项的列表。
如果n大于1,可能会有多个。
- created: int#
聊天完成时创建的Unix时间戳(以秒为单位)。
- id: str#
聊天完成的唯一标识符。
- model: str#
用于聊天完成的模型。
- model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#
模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。
- object: Literal['chat.completion']#
对象类型,始终为chat.completion。
- service_tier: Literal['scale', 'default'] | None#
用于处理请求的服务层级。
- system_fingerprint: str | None#
此指纹代表模型运行时的后端配置。
可以与seed请求参数结合使用,用于了解后端何时进行了可能影响确定性的更改。
- usage: CompletionUsage | None#
完成请求的使用统计信息。
- class camel.types.RoleType(value)[来源]#
基础类:
Enum一个枚举。
- ASSISTANT = 'assistant'#
- CRITIC = 'critic'#
- DEFAULT = 'default'#
- EMBODIMENT = 'embodiment'#
- USER = 'user'#
- class camel.types.StorageType(value)[来源]#
基础类:
Enum一个枚举。
- MILVUS = 'milvus'#
- QDRANT = 'qdrant'#
- TIDB = 'tidb'#
- class camel.types.TaskType(value)[来源]#
基础类:
Enum一个枚举。
- AI_SOCIETY = 'ai_society'#
- CODE = 'code'#
- DEFAULT = 'default'#
- EVALUATION = 'evaluation'#
- GENERATE_TEXT_EMBEDDING_DATA = 'generate_text_embedding_data'#
- IMAGE_CRAFT = 'image_craft'#
- MISALIGNMENT = 'misalignment'#
- MULTI_CONDITION_IMAGE_CRAFT = 'multi_condition_image_craft'#
- OBJECT_RECOGNITION = 'object_recognition'#
- ROLE_DESCRIPTION = 'role_description'#
- SOLUTION_EXTRACTION = 'solution_extraction'#
- TRANSLATION = 'translation'#
- VIDEO_DESCRIPTION = 'video_description'#
- class camel.types.UnifiedModelType(value: ModelType | str)[来源]#
基类:
str用于支持同时使用
ModelType和str的类,以统一方式表示模型类型。该类是str的子类,因此可以无缝作为字符串使用。- Parameters:
value (Union[ModelType, str]) - 模型类型的值。
- property is_anthropic: bool#
返回该模型是否为Anthropic模型。
- property is_azure_openai: bool#
返回该模型是否为Azure OpenAI模型。
- property is_cohere: bool#
返回该模型是否为Cohere模型。
- property is_gemini: bool#
返回该模型是否为Gemini模型。
- property is_groq: bool#
返回该模型是否为Groq托管的模型。
- property is_internlm: bool#
返回该模型是否为InternLM模型。
- property is_mistral: bool#
返回该模型是否为Mistral模型。
- property is_modelscope: bool#
返回该模型是否为ModelScope托管的模型。
- property is_moonshot: bool#
返回该平台是否为Moonshot模型。
- property is_openai: bool#
返回该模型是否为OpenAI模型。
- property is_openrouter: bool#
返回该模型是否为OpenRouter提供的模型。
- property is_ppio: bool#
返回该模型是否为PPIO服务的模型。
- property is_qwen: bool#
返回该模型是否为Qwen模型。
- property is_reka: bool#
返回该模型是否为Reka模型。
- property is_yi: bool#
返回该模型是否为Yi模型。
- property is_zhipuai: bool#
返回该模型是否为Zhipuai模型。
- property support_native_structured_output: bool#
返回模型是否支持原生结构化输出。
- property support_native_tool_calling: bool#
返回模型是否支持原生工具调用。
- property token_limit: int#
返回模型的令牌限制。如果model_config_dict未提供该值,我们在此将默认值设为999_999_999
- property value_for_tiktoken: str#
返回TikToken的模型名称。