camel.types 包

本页内容

camel.types 包#

子模块#

camel.types.enums 模块#

class camel.types.enums.AudioModelType(value)[来源]#

基础类: Enum

一个枚举。

TTS_1 = 'tts-1'#
TTS_1_HD = 'tts-1-hd'#
property is_openai: bool#

返回该类型的音频模型是否为OpenAI发布的模型。

class camel.types.enums.EmbeddingModelType(value)[来源]#

基础类: Enum

一个枚举类型。

JINA_CLIP_V2 = 'jina-clip-v2'#
JINA_COLBERT_V2 = 'jina-colbert-v2'#
JINA_EMBEDDINGS_V2_BASE_CODE = 'jina-embeddings-v2-base-code'#
JINA_EMBEDDINGS_V3 = 'jina-embeddings-v3'#
MISTRAL_EMBED = 'mistral-embed'#
TEXT_EMBEDDING_3_LARGE = 'text-embedding-3-large'#
TEXT_EMBEDDING_3_SMALL = 'text-embedding-3-small'#
TEXT_EMBEDDING_ADA_2 = 'text-embedding-ada-002'#
property is_jina: bool#

返回该类型模型是否为Jina模型。

property is_mistral: bool#

返回该类型模型是否为Mistral发布的模型。

property is_openai: bool#

返回该类型模型是否为OpenAI发布的模型。

property output_dim: int#
class camel.types.enums.HuggingFaceRepoType(value)[来源]#

基类: str, Enum

一个枚举类型。

DATASET = 'dataset'#
MODEL = 'model'#
SPACE = 'space'#
class camel.types.enums.JinaReturnFormat(value)[来源]#

基础类: Enum

一个枚举类型。

DEFAULT = None#
HTML = 'html'#
MARKDOWN = 'markdown'#
TEXT = 'text'#
class camel.types.enums.ModelPlatformType(value)[来源]#

基础类: Enum

一个枚举类型。

AIML = 'aiml'#
ANTHROPIC = 'anthropic'#
AZURE = 'azure'#
COHERE = 'cohere'#
DEEPSEEK = 'deepseek'#
DEFAULT = 'openai'#
GEMINI = 'gemini'#
GROQ = 'groq'#
INTERNLM = 'internlm'#
LITELLM = 'litellm'#
MISTRAL = 'mistral'#
MODELSCOPE = 'modelscope'#
MOONSHOT = 'moonshot'#
NVIDIA = 'nvidia'#
OLLAMA = 'ollama'#
OPENAI = 'openai'#
OPENAI_COMPATIBLE_MODEL = 'openai-compatible-model'#
OPENROUTER = 'openrouter'#
PPIO = 'ppio'#
QWEN = 'tongyi-qianwen'#
REKA = 'reka'#
SAMBA = 'samba-nova'#
SGLANG = 'sglang'#
SILICONFLOW = 'siliconflow'#
TOGETHER = 'together'#
VLLM = 'vllm'#
VOLCANO = 'volcano'#
YI = 'lingyiwanwu'#
ZHIPU = 'zhipuai'#
classmethod from_name(name)[来源]#

从字符串返回ModelPlatformType枚举值。

property is_aiml: bool#

返回该平台是否为AIML。

property is_anthropic: bool#

返回该平台是否属于anthropic。

property is_azure: bool#

返回该平台是否为azure。

property is_cohere: bool#

返回该平台是否为Cohere。

property is_deepseek: bool#

返回当前平台是否为DeepSeek。

property is_gemini: bool#

返回该平台是否为Gemini。

property is_groq: bool#

返回当前平台是否为groq。

property is_internlm: bool#

返回当前平台是否为InternLM。

property is_litellm: bool#

返回当前平台是否为litellm。

property is_mistral: bool#

返回该平台是否为mistral。

property is_modelscope: bool#

返回该平台是否为ModelScope模型。

property is_moonshot: bool#

返回该平台是否为Moonshot模型。

property is_nvidia: bool#

返回当前平台是否为Nvidia。

property is_ollama: bool#

返回当前平台是否为ollama。

property is_openai: bool#

返回该平台是否为openai。

property is_openai_compatible_model: bool#

返回当前平台是否支持OpenAI兼容性

property is_openrouter: bool#

返回该平台是否为openrouter。

property is_ppio: bool#

返回当前平台是否为PPIO。

property is_qwen: bool#

返回当前平台是否为Qwen。

property is_reka: bool#

返回当前平台是否为Reka。

property is_samba: bool#

返回当前平台是否为Samba Nova。

property is_sglang: bool#

返回该平台是否为sglang。

property is_siliconflow: bool#

返回当前平台是否为SiliconFlow。

property is_together: bool#

返回该平台是否处于协同状态。

property is_vllm: bool#

返回该平台是否为vllm。

property is_volcano: bool#

返回此平台是否为volcano。

property is_yi: bool#

返回当前平台是否为Yi。

property is_zhipuai: bool#

返回当前平台是否为zhipu。

class camel.types.enums.OpenAIBackendRole(value)[来源]#

基础类: Enum

一个枚举。

ASSISTANT = 'assistant'#
DEVELOPER = 'developer'#
FUNCTION = 'function'#
SYSTEM = 'system'#
TOOL = 'tool'#
USER = 'user'#
class camel.types.enums.OpenAIImageType(value)[来源]#

基础类: Enum

OpenAI视觉模型支持的图像类型。

GIF = 'gif'#
JPEG = 'jpeg'#
JPG = 'jpg'#
PNG = 'png'#
WEBP = 'webp'#
class camel.types.enums.OpenAIImageTypeMeta(cls, bases, classdict, **kwds)[来源]#

基类:EnumMeta

class camel.types.enums.OpenAIVisionDetailType(value)[来源]#

基础类: Enum

一个枚举。

AUTO = 'auto'#
HIGH = 'high'#
LOW = 'low'#
class camel.types.enums.OpenAPIName(value)[来源]#

基础类: Enum

一个枚举。

BIZTOC = 'biztoc'#
COURSERA = 'coursera'#
CREATE_QR_CODE = 'create_qr_code'#
KLARNA = 'klarna'#
NASA_APOD = 'nasa_apod'#
OUTSCHOOL = 'outschool'#
SPEAK = 'speak'#
WEB_SCRAPER = 'web_scraper'#
class camel.types.enums.RoleType(value)[来源]#

基础类: Enum

一个枚举。

ASSISTANT = 'assistant'#
CRITIC = 'critic'#
DEFAULT = 'default'#
EMBODIMENT = 'embodiment'#
USER = 'user'#
class camel.types.enums.StorageType(value)[来源]#

基础类: Enum

一个枚举。

MILVUS = 'milvus'#
QDRANT = 'qdrant'#
TIDB = 'tidb'#
class camel.types.enums.TaskType(value)[来源]#

基础类: Enum

一个枚举。

AI_SOCIETY = 'ai_society'#
CODE = 'code'#
DEFAULT = 'default'#
EVALUATION = 'evaluation'#
GENERATE_TEXT_EMBEDDING_DATA = 'generate_text_embedding_data'#
IMAGE_CRAFT = 'image_craft'#
MISALIGNMENT = 'misalignment'#
MULTI_CONDITION_IMAGE_CRAFT = 'multi_condition_image_craft'#
OBJECT_RECOGNITION = 'object_recognition'#
ROLE_DESCRIPTION = 'role_description'#
SOLUTION_EXTRACTION = 'solution_extraction'#
TRANSLATION = 'translation'#
VIDEO_DESCRIPTION = 'video_description'#
class camel.types.enums.TerminationMode(value)[来源]#

基础类: Enum

一个枚举。

ALL = 'all'#
ANY = 'any'#
class camel.types.enums.VectorDistance(value)[来源]#

基础类: Enum

向量数据库中使用的距离度量指标。

COSINE = 'cosine'#

//en.wikipedia.org/wiki/Cosine_similarity

Type:

余弦相似度。https

DOT = 'dot'#

//en.wikipedia.org/wiki/Dot_product

Type:

点积。https

EUCLIDEAN = 'euclidean'#

//en.wikipedia.org/wiki/欧几里得距离

Type:

欧几里得距离。https

class camel.types.enums.VoiceType(value)[来源]#

基础类: Enum

一个枚举。

ALLOY = 'alloy'#
ECHO = 'echo'#
FABLE = 'fable'#
NOVA = 'nova'#
ONYX = 'onyx'#
SHIMMER = 'shimmer'#
property is_openai: bool#

返回该类型语音是否为OpenAI发布的语音。

camel.types.openai_types 模块#

class camel.types.openai_types.ChatCompletion(**data: Any)[来源]#

基类:BaseModel

choices: List[选择]#

聊天完成选项的列表。

如果n大于1,可能会有多个。

created: int#

聊天完成时创建的Unix时间戳(以秒为单位)。

id: str#

聊天完成的唯一标识符。

model: str#

用于聊天完成的模型。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

object: Literal['chat.completion']#

对象类型,始终为chat.completion

service_tier: Literal['scale', 'default'] | None#

用于处理请求的服务层级。

system_fingerprint: str | None#

此指纹代表模型运行时的后端配置。

可以与seed请求参数结合使用,以了解后端何时进行了可能影响确定性的更改。

usage: CompletionUsage | None#

完成请求的使用统计信息。

class camel.types.openai_types.ChatCompletionAssistantMessageParam[来源]#

基类: TypedDict

audio: Audio | None#

关于模型先前音频响应的数据。

[了解更多](https://platform.openai.com/docs/guides/audio).

content: str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartRefusalParam] | None#

助手消息的内容。

除非指定了 tool_callsfunction_call,否则为必填项。

function_call: FunctionCall | None#

已弃用,由tool_calls替代。

一个应该被调用的函数的名称和参数,由模型生成。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

refusal: str | None#

助手的拒绝消息。

role: Required[Literal['assistant']]#

消息作者的角色,在这个例子中是assistant

tool_calls: Iterable[ChatCompletionMessageToolCallParam]#

模型生成的工具调用,例如函数调用。

class camel.types.openai_types.ChatCompletionChunk(**data: Any)[来源]#

基类:BaseModel

choices: List[Choice]#

聊天完成选项的列表。

如果n大于1,可以包含多个元素。如果设置了stream_options: {“include_usage”: true},最后一个块也可能为空。

created: int#

聊天完成时创建的Unix时间戳(以秒为单位)。

每个数据块具有相同的时间戳。

id: str#

聊天完成的唯一标识符。每个数据块具有相同的ID。

model: str#

用于生成补全的模型。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

object: Literal['chat.completion.chunk']#

对象类型,始终为chat.completion.chunk

service_tier: Literal['scale', 'default'] | None#

用于处理请求的服务层级。

system_fingerprint: str | None#

该指纹代表模型运行时的后端配置。可以与seed请求参数结合使用,用于识别何时进行了可能影响确定性的后端更改。

usage: CompletionUsage | None#

这是一个可选字段,仅当您在请求中设置stream_options: {“include_usage”: true}时才会出现。当该字段存在时,其值为空除了最后一个数据块,最后一个数据块包含整个请求的token使用统计信息。

注意:如果流被中断或取消,您可能无法接收到包含请求总令牌用量的最终使用数据块。

class camel.types.openai_types.ChatCompletionMessage(**data: Any)[来源]#

基类:BaseModel

annotations: List[Annotation] | None#

消息的注释(如适用),例如在使用[web搜索工具](https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat)时。

audio: ChatCompletionAudio | None#

如果请求了音频输出模式,该对象包含来自模型的音频响应数据。 [了解更多](https://platform.openai.com/docs/guides/audio)。

content: str | None#

消息的内容。

function_call: FunctionCall | None#

已弃用,由tool_calls替代。

一个应该被调用的函数的名称和参数,由模型生成。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

refusal: str | None#

模型生成的拒绝消息。

role: Literal['assistant']#

这条消息作者的角色。

tool_calls: List[ChatCompletionMessageToolCall] | None#

模型生成的工具调用,例如函数调用。

class camel.types.openai_types.ChatCompletionMessageToolCall(**data: Any)[来源]#

基类:BaseModel

function: Function#

模型调用的函数。

id: str#

工具调用的ID。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

type: Literal['function']#

工具的类型。目前仅支持function

class camel.types.openai_types.ChatCompletionSystemMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#

系统消息的内容。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

role: Required[Literal['system']]#

消息作者的角色,在本例中为system

class camel.types.openai_types.ChatCompletionToolMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#

工具消息的内容。

role: Required[Literal['tool']]#

消息作者的角色,在本例中为工具

tool_call_id: Required[str]#

此消息所回应的工具调用。

class camel.types.openai_types.ChatCompletionUserMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartImageParam | ChatCompletionContentPartInputAudioParam | File]]#

用户消息的内容。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

role: Required[Literal['user']]#

消息作者的角色,在本例中为用户

class camel.types.openai_types.Choice(**data: Any)[来源]#

基类:BaseModel

finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call']#

模型停止生成token的原因。

如果模型遇到自然停止点或提供的停止序列,则为stop;如果达到请求中指定的最大令牌数,则为length;如果由于内容过滤器的标记而省略了内容,则为content_filter;如果模型调用了工具,则为tool_calls;如果模型调用了函数,则为function_call(已弃用)。

index: int#

选项列表中该选项的索引。

logprobs: ChoiceLogprobs | None#

选择的对数概率信息。

message: ChatCompletionMessage#

由模型生成的聊天完成消息。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

class camel.types.openai_types.CompletionUsage(**data: Any)[来源]#

基类:BaseModel

completion_tokens: int#

生成完成中的令牌数量。

completion_tokens_details: CompletionTokensDetails | None#

完成中使用的令牌分解。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

prompt_tokens: int#

提示中的令牌数量。

prompt_tokens_details: PromptTokensDetails | None#

提示中使用的令牌细分。

total_tokens: int#

请求中使用的令牌总数(提示+完成)。

class camel.types.openai_types.NotGiven#

基类:object

一个哨兵单例类,用于区分省略的关键字参数与那些传入值为None的参数(可能有不同的行为)。

例如:

```py def get(timeout: Union[int, NotGiven, None] = NotGiven()) -> Response: …

get(timeout=1) # 1秒超时 get(timeout=None) # 无超时 get() # 默认超时行为,在方法定义时可能无法静态确定。 ```

class camel.types.openai_types.ParsedChatCompletion(*, id: str, choices: List[ParsedChoice], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#

基类: ChatCompletion, GenericModel, Generic[ContentType]

choices: List[ParsedChoice]#

聊天完成选项的列表。

如果n大于1,可能会有多个。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

模块内容#

class camel.types.AudioModelType(value)[来源]#

基础类: Enum

一个枚举。

TTS_1 = 'tts-1'#
TTS_1_HD = 'tts-1-hd'#
property is_openai: bool#

返回该类型的音频模型是否为OpenAI发布的模型。

class camel.types.ChatCompletion(*, id: str, choices: List[选择], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#

基类:BaseModel

choices: List[选择]#

聊天完成选项的列表。

如果n大于1,可能会有多个。

created: int#

聊天完成时创建的Unix时间戳(以秒为单位)。

id: str#

聊天完成的唯一标识符。

model: str#

用于聊天完成的模型。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

object: Literal['chat.completion']#

对象类型,始终为chat.completion

service_tier: Literal['scale', 'default'] | None#

用于处理请求的服务层级。

system_fingerprint: str | None#

此指纹代表模型运行时的后端配置。

可以与seed请求参数结合使用,用于了解后端何时进行了可能影响确定性的更改。

usage: CompletionUsage | None#

完成请求的使用统计信息。

class camel.types.ChatCompletionAssistantMessageParam[来源]#

基类: TypedDict

audio: Audio | None#

关于模型先前音频响应的数据。

[了解更多](https://platform.openai.com/docs/guides/audio).

content: str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartRefusalParam] | None#

助手消息的内容。

除非指定了 tool_callsfunction_call,否则为必填项。

function_call: FunctionCall | None#

已弃用,由tool_calls替代。

一个应该被调用的函数的名称和参数,由模型生成。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

refusal: str | None#

助手的拒绝消息。

role: Required[Literal['assistant']]#

消息作者的角色,在这个例子中是assistant

tool_calls: Iterable[ChatCompletionMessageToolCallParam]#

模型生成的工具调用,例如函数调用。

class camel.types.ChatCompletionChunk(*, id: str, choices: List[Choice], created: int, model: str, object: Literal['chat.completion.chunk'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#

基类:BaseModel

choices: List[Choice]#

聊天完成选项的列表。

如果n大于1,可以包含多个元素。如果设置了stream_options: {“include_usage”: true},最后一个块也可能为空。

created: int#

聊天完成时创建的Unix时间戳(以秒为单位)。

每个数据块具有相同的时间戳。

id: str#

聊天完成的唯一标识符。每个数据块具有相同的ID。

model: str#

用于生成补全的模型。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

object: Literal['chat.completion.chunk']#

对象类型,始终为chat.completion.chunk

service_tier: Literal['scale', 'default'] | None#

用于处理请求的服务层级。

system_fingerprint: str | None#

该指纹代表模型运行时的后端配置。可以与seed请求参数结合使用,用于识别何时进行了可能影响确定性的后端更改。

usage: CompletionUsage | None#

这是一个可选字段,仅当您在请求中设置stream_options: {“include_usage”: true}时才会出现。当该字段存在时,其值为空除了最后一个数据块,最后一个数据块包含整个请求的token使用统计信息。

注意:如果流被中断或取消,您可能无法接收到包含请求总令牌用量的最终使用数据块。

class camel.types.ChatCompletionMessage(*, content: str | None = None, refusal: str | None = None, role: Literal['assistant'], annotations: List[Annotation] | None = None, audio: ChatCompletionAudio | None = None, function_call: FunctionCall | None = None, tool_calls: List[ChatCompletionMessageToolCall] | None = None, **extra_data: Any)[来源]#

基类:BaseModel

annotations: List[Annotation] | None#

消息的注释(如适用),例如在使用[web搜索工具](https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat)时。

audio: ChatCompletionAudio | None#

如果请求了音频输出模式,该对象包含来自模型的音频响应数据。 [了解更多](https://platform.openai.com/docs/guides/audio)。

content: str | None#

消息的内容。

function_call: FunctionCall | None#

已弃用,由tool_calls替代。

一个应该被调用的函数的名称和参数,由模型生成。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

refusal: str | None#

模型生成的拒绝消息。

role: Literal['assistant']#

这条消息作者的角色。

tool_calls: List[ChatCompletionMessageToolCall] | None#

模型生成的工具调用,例如函数调用。

class camel.types.ChatCompletionMessageToolCall(*, id: str, function: Function, type: Literal['function'], **extra_data: Any)[来源]#

基类:BaseModel

function: Function#

模型调用的函数。

id: str#

工具调用的ID。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

type: Literal['function']#

工具的类型。目前仅支持function

class camel.types.ChatCompletionSystemMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#

系统消息的内容。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

role: Required[Literal['system']]#

消息作者的角色,在本例中为system

class camel.types.ChatCompletionToolMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam]]#

工具消息的内容。

role: Required[Literal['tool']]#

消息作者的角色,在本例中为工具

tool_call_id: Required[str]#

此消息所回应的工具调用。

class camel.types.ChatCompletionUserMessageParam[来源]#

基类: TypedDict

content: Required[str | Iterable[ChatCompletionContentPartTextParam | ChatCompletionContentPartImageParam | ChatCompletionContentPartInputAudioParam | File]]#

用户消息的内容。

name: str#

参与者的可选名称。

提供模型信息以区分同一角色的不同参与者。

role: Required[Literal['user']]#

消息作者的角色,在本例中为用户

class camel.types.Choice(*, finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call'], index: int, logprobs: ChoiceLogprobs | None = None, message: ChatCompletionMessage, **extra_data: Any)[来源]#

基类:BaseModel

finish_reason: Literal['stop', 'length', 'tool_calls', 'content_filter', 'function_call']#

模型停止生成token的原因。

如果模型遇到自然停止点或提供的停止序列,则为stop;如果达到请求中指定的最大令牌数,则为length;如果由于内容过滤器的标记而省略了内容,则为content_filter;如果模型调用了工具,则为tool_calls;如果模型调用了函数,则为function_call(已弃用)。

index: int#

选项列表中该选项的索引。

logprobs: ChoiceLogprobs | None#

选择的对数概率信息。

message: ChatCompletionMessage#

由模型生成的聊天完成消息。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

class camel.types.CompletionUsage(*, completion_tokens: int, prompt_tokens: int, total_tokens: int, completion_tokens_details: CompletionTokensDetails | None = None, prompt_tokens_details: PromptTokensDetails | None = None, **extra_data: Any)[来源]#

基类:BaseModel

completion_tokens: int#

生成完成中的令牌数量。

completion_tokens_details: CompletionTokensDetails | None#

完成中使用的令牌分解。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

prompt_tokens: int#

提示中的令牌数量。

prompt_tokens_details: PromptTokensDetails | None#

提示中使用的令牌细分。

total_tokens: int#

请求中使用的令牌总数(提示+完成)。

class camel.types.EmbeddingModelType(value)[来源]#

基础类: Enum

一个枚举。

JINA_CLIP_V2 = 'jina-clip-v2'#
JINA_COLBERT_V2 = 'jina-colbert-v2'#
JINA_EMBEDDINGS_V2_BASE_CODE = 'jina-embeddings-v2-base-code'#
JINA_EMBEDDINGS_V3 = 'jina-embeddings-v3'#
MISTRAL_EMBED = 'mistral-embed'#
TEXT_EMBEDDING_3_LARGE = 'text-embedding-3-large'#
TEXT_EMBEDDING_3_SMALL = 'text-embedding-3-small'#
TEXT_EMBEDDING_ADA_2 = 'text-embedding-ada-002'#
property is_jina: bool#

返回该类型模型是否为Jina模型。

property is_mistral: bool#

返回该类型模型是否为Mistral发布的模型。

property is_openai: bool#

返回该类型模型是否为OpenAI发布的模型。

property output_dim: int#
class camel.types.HuggingFaceRepoType(value)[来源]#

基类: str, Enum

一个枚举。

DATASET = 'dataset'#
MODEL = 'model'#
SPACE = 'space'#
class camel.types.ModelPlatformType(value)[来源]#

基础类: Enum

一个枚举。

AIML = 'aiml'#
ANTHROPIC = 'anthropic'#
AZURE = 'azure'#
COHERE = 'cohere'#
DEEPSEEK = 'deepseek'#
DEFAULT = 'openai'#
GEMINI = 'gemini'#
GROQ = 'groq'#
INTERNLM = 'internlm'#
LITELLM = 'litellm'#
MISTRAL = 'mistral'#
MODELSCOPE = 'modelscope'#
MOONSHOT = 'moonshot'#
NVIDIA = 'nvidia'#
OLLAMA = 'ollama'#
OPENAI = 'openai'#
OPENAI_COMPATIBLE_MODEL = 'openai-compatible-model'#
OPENROUTER = 'openrouter'#
PPIO = 'ppio'#
QWEN = 'tongyi-qianwen'#
REKA = 'reka'#
SAMBA = 'samba-nova'#
SGLANG = 'sglang'#
SILICONFLOW = 'siliconflow'#
TOGETHER = 'together'#
VLLM = 'vllm'#
VOLCANO = 'volcano'#
YI = 'lingyiwanwu'#
ZHIPU = 'zhipuai'#
classmethod from_name(name)[来源]#

从字符串返回ModelPlatformType枚举值。

property is_aiml: bool#

返回该平台是否为AIML。

property is_anthropic: bool#

返回该平台是否属于anthropic。

property is_azure: bool#

返回该平台是否为azure。

property is_cohere: bool#

返回该平台是否为Cohere。

property is_deepseek: bool#

返回当前平台是否为DeepSeek。

property is_gemini: bool#

返回该平台是否为Gemini。

property is_groq: bool#

返回当前平台是否为groq。

property is_internlm: bool#

返回当前平台是否为InternLM。

property is_litellm: bool#

返回当前平台是否为litellm。

property is_mistral: bool#

返回该平台是否为mistral。

property is_modelscope: bool#

返回该平台是否为ModelScope模型。

property is_moonshot: bool#

返回该平台是否为Moonshot模型。

property is_nvidia: bool#

返回当前平台是否为Nvidia。

property is_ollama: bool#

返回当前平台是否为ollama。

property is_openai: bool#

返回该平台是否为openai。

property is_openai_compatible_model: bool#

返回当前平台是否支持OpenAI兼容性

property is_openrouter: bool#

返回该平台是否为openrouter。

property is_ppio: bool#

返回当前平台是否为PPIO。

property is_qwen: bool#

返回当前平台是否为Qwen。

property is_reka: bool#

返回当前平台是否为Reka。

property is_samba: bool#

返回当前平台是否为Samba Nova。

property is_sglang: bool#

返回该平台是否为sglang。

property is_siliconflow: bool#

返回当前平台是否为SiliconFlow。

property is_together: bool#

返回该平台是否处于协同状态。

property is_vllm: bool#

返回该平台是否为vllm。

property is_volcano: bool#

返回此平台是否为volcano。

property is_yi: bool#

返回当前平台是否为Yi。

property is_zhipuai: bool#

返回当前平台是否为zhipu。

class camel.types.ModelType(value)#

基类: UnifiedModelType, Enum

一个枚举。

AIML_MISTRAL_7B_INSTRUCT = ModelType.AIML_MISTRAL_7B_INSTRUCT#
AIML_MIXTRAL_8X7B = ModelType.AIML_MIXTRAL_8X7B#
CLAUDE_2_0 = ModelType.CLAUDE_2_0#
CLAUDE_2_1 = ModelType.CLAUDE_2_1#
CLAUDE_3_5_HAIKU = ModelType.CLAUDE_3_5_HAIKU#
CLAUDE_3_5_SONNET = ModelType.CLAUDE_3_5_SONNET#
CLAUDE_3_7_SONNET = ModelType.CLAUDE_3_7_SONNET#
CLAUDE_3_HAIKU = ModelType.CLAUDE_3_HAIKU#
CLAUDE_3_OPUS = ModelType.CLAUDE_3_OPUS#
CLAUDE_3_SONNET = ModelType.CLAUDE_3_SONNET#
CLAUDE_INSTANT_1_2 = ModelType.CLAUDE_INSTANT_1_2#
COHERE_COMMAND = ModelType.COHERE_COMMAND#
COHERE_COMMAND_LIGHT = ModelType.COHERE_COMMAND_LIGHT#
COHERE_COMMAND_NIGHTLY = ModelType.COHERE_COMMAND_NIGHTLY#
COHERE_COMMAND_R = ModelType.COHERE_COMMAND_R#
COHERE_COMMAND_R_PLUS = ModelType.COHERE_COMMAND_R_PLUS#
DEEPSEEK_CHAT = ModelType.DEEPSEEK_CHAT#
DEEPSEEK_REASONER = ModelType.DEEPSEEK_REASONER#
DEFAULT = ModelType.GPT_4O_MINI#
GEMINI_1_5_FLASH = ModelType.GEMINI_1_5_FLASH#
GEMINI_1_5_PRO = ModelType.GEMINI_1_5_PRO#
GEMINI_2_0_FLASH = ModelType.GEMINI_2_0_FLASH#
GEMINI_2_0_FLASH_LITE_PREVIEW = ModelType.GEMINI_2_0_FLASH_LITE_PREVIEW#
GEMINI_2_0_FLASH_THINKING = ModelType.GEMINI_2_0_FLASH_THINKING#
GEMINI_2_0_PRO_EXP = ModelType.GEMINI_2_0_PRO_EXP#
GEMINI_2_5_PRO_EXP = ModelType.GEMINI_2_5_PRO_EXP#
GLM_3_TURBO = ModelType.GLM_3_TURBO#
GLM_4 = ModelType.GLM_4#
GLM_4V = ModelType.GLM_4V#
GLM_4V_FLASH = ModelType.GLM_4V_FLASH#
GLM_4V_PLUS_0111 = ModelType.GLM_4V_PLUS_0111#
GLM_4_AIR = ModelType.GLM_4_AIR#
GLM_4_AIRX = ModelType.GLM_4_AIRX#
GLM_4_AIR_0111 = ModelType.GLM_4_AIR_0111#
GLM_4_FLASH = ModelType.GLM_4_FLASH#
GLM_4_FLASHX = ModelType.GLM_4_FLASHX#
GLM_4_LONG = ModelType.GLM_4_LONG#
GLM_4_PLUS = ModelType.GLM_4_PLUS#
GLM_ZERO_PREVIEW = ModelType.GLM_ZERO_PREVIEW#
GPT_3_5_TURBO = ModelType.GPT_3_5_TURBO#
GPT_4 = ModelType.GPT_4#
GPT_4O = ModelType.GPT_4O#
GPT_4O_MINI = ModelType.GPT_4O_MINI#
GPT_4_1 = ModelType.GPT_4_1#
GPT_4_1_MINI = ModelType.GPT_4_1_MINI#
GPT_4_1_NANO = ModelType.GPT_4_1_NANO#
GPT_4_5_PREVIEW = ModelType.GPT_4_5_PREVIEW#
GPT_4_TURBO = ModelType.GPT_4_TURBO#
GROQ_GEMMA_2_9B_IT = ModelType.GROQ_GEMMA_2_9B_IT#
GROQ_LLAMA_3_1_8B = ModelType.GROQ_LLAMA_3_1_8B#
GROQ_LLAMA_3_3_70B = ModelType.GROQ_LLAMA_3_3_70B#
GROQ_LLAMA_3_3_70B_PREVIEW = ModelType.GROQ_LLAMA_3_3_70B_PREVIEW#
GROQ_LLAMA_3_70B = ModelType.GROQ_LLAMA_3_70B#
GROQ_LLAMA_3_8B = ModelType.GROQ_LLAMA_3_8B#
GROQ_MIXTRAL_8_7B = ModelType.GROQ_MIXTRAL_8_7B#
INTERNLM2_5_LATEST = ModelType.INTERNLM2_5_LATEST#
INTERNLM2_PRO_CHAT = ModelType.INTERNLM2_PRO_CHAT#
INTERNLM3_8B_INSTRUCT = ModelType.INTERNLM3_8B_INSTRUCT#
INTERNLM3_LATEST = ModelType.INTERNLM3_LATEST#
MISTRAL_3B = ModelType.MISTRAL_3B#
MISTRAL_7B = ModelType.MISTRAL_7B#
MISTRAL_8B = ModelType.MISTRAL_8B#
MISTRAL_CODESTRAL = ModelType.MISTRAL_CODESTRAL#
MISTRAL_CODESTRAL_MAMBA = ModelType.MISTRAL_CODESTRAL_MAMBA#
MISTRAL_LARGE = ModelType.MISTRAL_LARGE#
MISTRAL_MIXTRAL_8x22B = ModelType.MISTRAL_MIXTRAL_8x22B#
MISTRAL_MIXTRAL_8x7B = ModelType.MISTRAL_MIXTRAL_8x7B#
MISTRAL_NEMO = ModelType.MISTRAL_NEMO#
MISTRAL_PIXTRAL_12B = ModelType.MISTRAL_PIXTRAL_12B#
MODELSCOPE_DEEPSEEK_V3_0324 = ModelType.MODELSCOPE_DEEPSEEK_V3_0324#
MODELSCOPE_LLAMA_3_1_405B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_405B_INSTRUCT#
MODELSCOPE_LLAMA_3_1_70B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_70B_INSTRUCT#
MODELSCOPE_LLAMA_3_1_8B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_1_8B_INSTRUCT#
MODELSCOPE_LLAMA_3_3_70B_INSTRUCT = ModelType.MODELSCOPE_LLAMA_3_3_70B_INSTRUCT#
MODELSCOPE_MINISTRAL_8B_INSTRUCT = ModelType.MODELSCOPE_MINISTRAL_8B_INSTRUCT#
MODELSCOPE_QWEN_2_5_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_14B_INSTRUCT#
MODELSCOPE_QWEN_2_5_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
MODELSCOPE_QWEN_2_5_72B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
MODELSCOPE_QWEN_2_5_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
MODELSCOPE_QWEN_2_5_CODER_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_14B_INSTRUCT#
MODELSCOPE_QWEN_2_5_CODER_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_32B_INSTRUCT#
MODELSCOPE_QWEN_2_5_CODER_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_CODER_7B_INSTRUCT#
MODELSCOPE_QWQ_32B = ModelType.MODELSCOPE_QWQ_32B#
MODELSCOPE_QWQ_32B_PREVIEW = ModelType.MODELSCOPE_QWQ_32B_PREVIEW#
MOONSHOT_V1_128K = ModelType.MOONSHOT_V1_128K#
MOONSHOT_V1_32K = ModelType.MOONSHOT_V1_32K#
MOONSHOT_V1_8K = ModelType.MOONSHOT_V1_8K#
NVIDIA_LLAMA3_1_405B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_405B_INSTRUCT#
NVIDIA_LLAMA3_1_70B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_70B_INSTRUCT#
NVIDIA_LLAMA3_1_8B_INSTRUCT = ModelType.NVIDIA_LLAMA3_1_8B_INSTRUCT#
NVIDIA_LLAMA3_2_1B_INSTRUCT = ModelType.NVIDIA_LLAMA3_2_1B_INSTRUCT#
NVIDIA_LLAMA3_2_3B_INSTRUCT = ModelType.NVIDIA_LLAMA3_2_3B_INSTRUCT#
NVIDIA_LLAMA3_3_70B_INSTRUCT = ModelType.NVIDIA_LLAMA3_3_70B_INSTRUCT#
NVIDIA_LLAMA3_70B = ModelType.NVIDIA_LLAMA3_70B#
NVIDIA_MISTRAL_LARGE = ModelType.NVIDIA_MISTRAL_LARGE#
NVIDIA_MIXTRAL_8X7B = ModelType.NVIDIA_MIXTRAL_8X7B#
NVIDIA_NEMOTRON_340B_INSTRUCT = ModelType.NVIDIA_NEMOTRON_340B_INSTRUCT#
NVIDIA_NEMOTRON_340B_REWARD = ModelType.NVIDIA_NEMOTRON_340B_REWARD#
NVIDIA_YI_LARGE = ModelType.NVIDIA_YI_LARGE#
O1 = ModelType.O1#
O1_MINI = ModelType.O1_MINI#
O1_PREVIEW = ModelType.O1_PREVIEW#
O3_MINI = ModelType.O3_MINI#
OPENROUTER_LLAMA_3_1_405B = ModelType.OPENROUTER_LLAMA_3_1_405B#
OPENROUTER_LLAMA_3_1_70B = ModelType.PPIO_LLAMA_3_1_70B#
OPENROUTER_LLAMA_4_MAVERICK = ModelType.OPENROUTER_LLAMA_4_MAVERICK#
OPENROUTER_LLAMA_4_MAVERICK_FREE = ModelType.OPENROUTER_LLAMA_4_MAVERICK_FREE#
OPENROUTER_LLAMA_4_SCOUT = ModelType.OPENROUTER_LLAMA_4_SCOUT#
OPENROUTER_LLAMA_4_SCOUT_FREE = ModelType.OPENROUTER_LLAMA_4_SCOUT_FREE#
OPENROUTER_OLYMPICODER_7B = ModelType.OPENROUTER_OLYMPICODER_7B#
PPIO_BAICHUAN_2_13B_CHAT = ModelType.PPIO_BAICHUAN_2_13B_CHAT#
PPIO_DEEPSEEK_R1 = ModelType.PPIO_DEEPSEEK_R1#
PPIO_DEEPSEEK_R1_COMMUNITY = ModelType.PPIO_DEEPSEEK_R1_COMMUNITY#
PPIO_DEEPSEEK_R1_TURBO = ModelType.PPIO_DEEPSEEK_R1_TURBO#
PPIO_DEEPSEEK_V3 = ModelType.PPIO_DEEPSEEK_V3#
PPIO_DEEPSEEK_V3_COMMUNITY = ModelType.PPIO_DEEPSEEK_V3_COMMUNITY#
PPIO_DEEPSEEK_V3_TURBO = ModelType.PPIO_DEEPSEEK_V3_TURBO#
PPIO_LLAMA_3_1_70B = ModelType.PPIO_LLAMA_3_1_70B#
PPIO_LLAMA_3_3_70B = ModelType.PPIO_LLAMA_3_3_70B#
PPIO_QWEN_2_5_72B = ModelType.PPIO_QWEN_2_5_72B#
PPIO_YI_1_5_34B_CHAT = ModelType.PPIO_YI_1_5_34B_CHAT#
QWEN_2_5_14B = ModelType.QWEN_2_5_14B#
QWEN_2_5_32B = ModelType.QWEN_2_5_32B#
QWEN_2_5_72B = ModelType.QWEN_2_5_72B#
QWEN_2_5_CODER_32B = ModelType.QWEN_2_5_CODER_32B#
QWEN_2_5_VL_72B = ModelType.QWEN_2_5_VL_72B#
QWEN_CODER_TURBO = ModelType.QWEN_CODER_TURBO#
QWEN_LONG = ModelType.QWEN_LONG#
QWEN_MATH_PLUS = ModelType.QWEN_MATH_PLUS#
QWEN_MATH_TURBO = ModelType.QWEN_MATH_TURBO#
QWEN_MAX = ModelType.QWEN_MAX#
QWEN_PLUS = ModelType.QWEN_PLUS#
QWEN_QVQ_72B = ModelType.QWEN_QVQ_72B#
QWEN_QWQ_32B = ModelType.QWEN_QWQ_32B#
QWEN_QWQ_PLUS = ModelType.QWEN_QWQ_PLUS#
QWEN_TURBO = ModelType.QWEN_TURBO#
QWEN_VL_MAX = ModelType.QWEN_VL_MAX#
QWEN_VL_PLUS = ModelType.QWEN_VL_PLUS#
REKA_CORE = ModelType.REKA_CORE#
REKA_EDGE = ModelType.REKA_EDGE#
REKA_FLASH = ModelType.REKA_FLASH#
SAMBA_LLAMA_3_1_405B = ModelType.SAMBA_LLAMA_3_1_405B#
SAMBA_LLAMA_3_1_70B = ModelType.SAMBA_LLAMA_3_1_70B#
SAMBA_LLAMA_3_1_8B = ModelType.SAMBA_LLAMA_3_1_8B#
SGLANG_LLAMA_3_1_405B = ModelType.SGLANG_LLAMA_3_1_405B#
SGLANG_LLAMA_3_1_70B = ModelType.SGLANG_LLAMA_3_1_70B#
SGLANG_LLAMA_3_1_8B = ModelType.SGLANG_LLAMA_3_1_8B#
SGLANG_LLAMA_3_2_1B = ModelType.SGLANG_LLAMA_3_2_1B#
SGLANG_MISTRAL_7B = ModelType.SGLANG_MISTRAL_7B#
SGLANG_MIXTRAL_NEMO = ModelType.SGLANG_MIXTRAL_NEMO#
SGLANG_QWEN_2_5_32B = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
SGLANG_QWEN_2_5_72B = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
SGLANG_QWEN_2_5_7B = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
SILICONFLOW_DEEPSEEK_V2_5 = ModelType.SILICONFLOW_DEEPSEEK_V2_5#
SILICONFLOW_DEEPSEEK_V3 = ModelType.SILICONFLOW_DEEPSEEK_V3#
SILICONFLOW_INTERN_LM2_5_20B_CHAT = ModelType.SILICONFLOW_INTERN_LM2_5_20B_CHAT#
SILICONFLOW_INTERN_LM2_5_7B_CHAT = ModelType.SILICONFLOW_INTERN_LM2_5_7B_CHAT#
SILICONFLOW_PRO_INTERN_LM2_5_7B_CHAT = ModelType.SILICONFLOW_PRO_INTERN_LM2_5_7B_CHAT#
SILICONFLOW_PRO_QWEN2_5_7B_INSTRUCT = ModelType.SILICONFLOW_PRO_QWEN2_5_7B_INSTRUCT#
SILICONFLOW_PRO_THUDM_GLM_4_9B_CHAT = ModelType.SILICONFLOW_PRO_THUDM_GLM_4_9B_CHAT#
SILICONFLOW_QWEN2_5_14B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_14B_INSTRUCT#
SILICONFLOW_QWEN2_5_32B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_32B_INSTRUCT#
SILICONFLOW_QWEN2_5_72B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_72B_INSTRUCT#
SILICONFLOW_QWEN2_5_7B_INSTRUCT = ModelType.MODELSCOPE_QWEN_2_5_7B_INSTRUCT#
SILICONFLOW_THUDM_GLM_4_9B_CHAT = ModelType.SILICONFLOW_THUDM_GLM_4_9B_CHAT#
STUB = ModelType.STUB#
TOGETHER_LLAMA_3_1_405B = ModelType.TOGETHER_LLAMA_3_1_405B#
TOGETHER_LLAMA_3_1_70B = ModelType.TOGETHER_LLAMA_3_1_70B#
TOGETHER_LLAMA_3_1_8B = ModelType.TOGETHER_LLAMA_3_1_8B#
TOGETHER_LLAMA_3_3_70B = ModelType.TOGETHER_LLAMA_3_3_70B#
TOGETHER_LLAMA_4_MAVERICK = ModelType.TOGETHER_LLAMA_4_MAVERICK#
TOGETHER_LLAMA_4_SCOUT = ModelType.TOGETHER_LLAMA_4_SCOUT#
TOGETHER_MISTRAL_7B = ModelType.AIML_MISTRAL_7B_INSTRUCT#
TOGETHER_MIXTRAL_8_7B = ModelType.AIML_MIXTRAL_8X7B#
YI_LARGE = ModelType.YI_LARGE#
YI_LARGE_FC = ModelType.YI_LARGE_FC#
YI_LARGE_RAG = ModelType.YI_LARGE_RAG#
YI_LARGE_TURBO = ModelType.YI_LARGE_TURBO#
YI_LIGHTNING = ModelType.YI_LIGHTNING#
YI_MEDIUM = ModelType.YI_MEDIUM#
YI_MEDIUM_200K = ModelType.YI_MEDIUM_200K#
YI_SPARK = ModelType.YI_SPARK#
YI_VISION = ModelType.YI_VISION#
classmethod from_name(name)[来源]#

从字符串返回ModelType枚举值。

property is_aiml: bool#
property is_anthropic: bool#

返回该类型模型是否为Anthropic发布的模型。

Returns:

这类模型是否具有拟人化特征。

Return type:

布尔值

property is_azure_openai: bool#

返回该类型模型是否为Azure发布的OpenAI模型。

property is_cohere: bool#

返回该类型模型是否为Cohere模型。

Returns:

这种类型的模型是否是Cohere。

Return type:

布尔值

property is_deepseek: bool#
property is_gemini: bool#

返回该类型模型是否为Gemini模型。

Returns:

这种类型的模型是否是gemini。

Return type:

布尔值

property is_groq: bool#

返回该类型模型是否由Groq提供服务。

property is_internlm: bool#

返回该模型是否为InternLM模型。

property is_mistral: bool#

返回该类型模型是否由Mistral提供服务。

property is_modelscope: bool#

返回该模型是否为ModelScope托管的模型。

property is_moonshot: bool#

返回该平台是否为Moonshot模型。

property is_nvidia: bool#

返回该类型模型是否为NVIDIA模型。

property is_openai: bool#

返回该类型模型是否为OpenAI发布的模型。

property is_openrouter: bool#

返回该类型模型是否由OpenRouter提供服务。

property is_ppio: bool#

返回该模型是否为PPIO服务的模型。

property is_qwen: bool#

返回该模型是否为Qwen模型。

property is_reka: bool#

返回该类型模型是否为Reka模型。

Returns:

这种类型的模型是否是Reka。

Return type:

布尔值

property is_sambanova: bool#

返回该类型模型是否由SambaNova AI提供服务。

property is_sglang: bool#
property is_siliconflow: bool#
property is_together: bool#

返回该类型模型是否由Together AI提供服务。

property is_yi: bool#

返回该类型模型是否为Yi模型。

Returns:

这种类型的模型是否是Yi。

Return type:

布尔值

property is_zhipuai: bool#

返回该类型模型是否为ZhipuAI模型。

property support_native_structured_output: bool#

返回模型是否支持原生结构化输出。

property support_native_tool_calling: bool#

返回模型是否支持原生工具调用。

property token_limit: int#

返回给定模型的最大token限制。

Returns:

给定模型的最大token限制。

Return type:

int

property value_for_tiktoken: str#

返回TikToken的模型名称。

class camel.types.NotGiven#

基类:object

一个哨兵单例类,用于区分省略的关键字参数与那些传入值为None的参数(可能有不同的行为)。

例如:

```py def get(timeout: Union[int, NotGiven, None] = NotGiven()) -> Response: …

get(timeout=1) # 1秒超时 get(timeout=None) # 无超时 get() # 默认超时行为,在方法定义时可能无法静态确定。 ```

class camel.types.OpenAIBackendRole(value)[来源]#

基础类: Enum

一个枚举。

ASSISTANT = 'assistant'#
DEVELOPER = 'developer'#
FUNCTION = 'function'#
SYSTEM = 'system'#
TOOL = 'tool'#
USER = 'user'#
class camel.types.OpenAIImageType(value)[来源]#

基础类: Enum

OpenAI视觉模型支持的图像类型。

GIF = 'gif'#
JPEG = 'jpeg'#
JPG = 'jpg'#
PNG = 'png'#
WEBP = 'webp'#
class camel.types.OpenAIVisionDetailType(value)[来源]#

基础类: Enum

一个枚举。

AUTO = 'auto'#
HIGH = 'high'#
LOW = 'low'#
class camel.types.OpenAPIName(value)[来源]#

基础类: Enum

一个枚举。

BIZTOC = 'biztoc'#
COURSERA = 'coursera'#
CREATE_QR_CODE = 'create_qr_code'#
KLARNA = 'klarna'#
NASA_APOD = 'nasa_apod'#
OUTSCHOOL = 'outschool'#
SPEAK = 'speak'#
WEB_SCRAPER = 'web_scraper'#
class camel.types.ParsedChatCompletion(*, id: str, choices: List[ParsedChoice], created: int, model: str, object: Literal['chat.completion'], service_tier: Literal['scale', 'default'] | None = None, system_fingerprint: str | None = None, usage: CompletionUsage | None = None, **extra_data: Any)[来源]#

基类: ChatCompletion, GenericModel, Generic[ContentType]

choices: List[ParsedChoice]#

聊天完成选项的列表。

如果n大于1,可能会有多个。

created: int#

聊天完成时创建的Unix时间戳(以秒为单位)。

id: str#

聊天完成的唯一标识符。

model: str#

用于聊天完成的模型。

model_config: ClassVar[ConfigDict] = {'defer_build': True, 'extra': 'allow'}#

模型的配置,应该是一个符合[ConfigDict][pydantic.config.ConfigDict]的字典。

object: Literal['chat.completion']#

对象类型,始终为chat.completion

service_tier: Literal['scale', 'default'] | None#

用于处理请求的服务层级。

system_fingerprint: str | None#

此指纹代表模型运行时的后端配置。

可以与seed请求参数结合使用,用于了解后端何时进行了可能影响确定性的更改。

usage: CompletionUsage | None#

完成请求的使用统计信息。

class camel.types.RoleType(value)[来源]#

基础类: Enum

一个枚举。

ASSISTANT = 'assistant'#
CRITIC = 'critic'#
DEFAULT = 'default'#
EMBODIMENT = 'embodiment'#
USER = 'user'#
class camel.types.StorageType(value)[来源]#

基础类: Enum

一个枚举。

MILVUS = 'milvus'#
QDRANT = 'qdrant'#
TIDB = 'tidb'#
class camel.types.TaskType(value)[来源]#

基础类: Enum

一个枚举。

AI_SOCIETY = 'ai_society'#
CODE = 'code'#
DEFAULT = 'default'#
EVALUATION = 'evaluation'#
GENERATE_TEXT_EMBEDDING_DATA = 'generate_text_embedding_data'#
IMAGE_CRAFT = 'image_craft'#
MISALIGNMENT = 'misalignment'#
MULTI_CONDITION_IMAGE_CRAFT = 'multi_condition_image_craft'#
OBJECT_RECOGNITION = 'object_recognition'#
ROLE_DESCRIPTION = 'role_description'#
SOLUTION_EXTRACTION = 'solution_extraction'#
TRANSLATION = 'translation'#
VIDEO_DESCRIPTION = 'video_description'#
class camel.types.TerminationMode(value)[来源]#

基础类: Enum

一个枚举。

ALL = 'all'#
ANY = 'any'#
class camel.types.UnifiedModelType(value: ModelType | str)[来源]#

基类:str

用于支持同时使用ModelTypestr的类,以统一方式表示模型类型。该类是str的子类,因此可以无缝作为字符串使用。

Parameters:

value (Union[ModelType, str]) - 模型类型的值。

property is_anthropic: bool#

返回该模型是否为Anthropic模型。

property is_azure_openai: bool#

返回该模型是否为Azure OpenAI模型。

property is_cohere: bool#

返回该模型是否为Cohere模型。

property is_gemini: bool#

返回该模型是否为Gemini模型。

property is_groq: bool#

返回该模型是否为Groq托管的模型。

property is_internlm: bool#

返回该模型是否为InternLM模型。

property is_mistral: bool#

返回该模型是否为Mistral模型。

property is_modelscope: bool#

返回该模型是否为ModelScope托管的模型。

property is_moonshot: bool#

返回该平台是否为Moonshot模型。

property is_openai: bool#

返回该模型是否为OpenAI模型。

property is_openrouter: bool#

返回该模型是否为OpenRouter提供的模型。

property is_ppio: bool#

返回该模型是否为PPIO服务的模型。

property is_qwen: bool#

返回该模型是否为Qwen模型。

property is_reka: bool#

返回该模型是否为Reka模型。

property is_yi: bool#

返回该模型是否为Yi模型。

property is_zhipuai: bool#

返回该模型是否为Zhipuai模型。

property support_native_structured_output: bool#

返回模型是否支持原生结构化输出。

property support_native_tool_calling: bool#

返回模型是否支持原生工具调用。

property token_limit: int#

返回模型的令牌限制。如果model_config_dict未提供该值,我们在此将默认值设为999_999_999

property value_for_tiktoken: str#

返回TikToken的模型名称。

class camel.types.VectorDistance(value)[来源]#

基础类: Enum

向量数据库中使用的距离度量指标。

COSINE = 'cosine'#

//en.wikipedia.org/wiki/Cosine_similarity

Type:

余弦相似度。https

DOT = 'dot'#

//en.wikipedia.org/wiki/Dot_product

Type:

点积。https

EUCLIDEAN = 'euclidean'#

//en.wikipedia.org/wiki/欧几里得距离

Type:

欧几里得距离。https

class camel.types.VoiceType(value)[来源]#

基础类: Enum

一个枚举。

ALLOY = 'alloy'#
ECHO = 'echo'#
FABLE = 'fable'#
NOVA = 'nova'#
ONYX = 'onyx'#
SHIMMER = 'shimmer'#
property is_openai: bool#

返回该类型语音是否为OpenAI发布的语音。