Shortcuts

qwen2_5_tokenizer

torchtune.models.qwen2_5.qwen2_5_tokenizer(path: str, merges_file: str, special_tokens_path: Optional[str] = None, max_seq_len: Optional[int] = None, prompt_template: Optional[Union[str, Dict[Literal['system', 'user', 'assistant', 'ipython'], Tuple[str, str]]]] = None, **kwargs) Qwen2_5Tokenizer[source]

Qwen2.5的分词器。

Parameters:
  • path (str) – vocab.json文件的路径。

  • merges_file (str) – merges.txt文件的路径。

  • special_tokens_path (Optional[str]) – 指向Hugging Face模型文件中包含所有注册特殊标记的tokenizer.json的路径,或者结构类似的本地json文件。默认为None,使用规范的Qwen2.5特殊标记。

  • max_seq_len (可选[int]) – 用于截断标记的最大序列长度。 默认值:无

  • prompt_template (可选[_TemplateType]) – 可选的指定提示模板。 如果是字符串,则假定为 PromptTemplateInterface 类的点路径。 如果是字典,则假定为自定义提示模板,将角色映射到前置/后置标签。 默认值为 None。

Returns:

Qwen2.5 分词器的实例化

Return type:

Qwen2_5Tokenizer