Shortcuts

instruct_dataset

torchtune.datasets.instruct_dataset(tokenizer: ModelTokenizer, *, source: str, column_map: Optional[Dict[str, str]] = None, train_on_input: bool = False, new_system_prompt: Optional[str] = None, packed: bool = False, filter_fn: Optional[Callable] = None, split: str = 'train', **load_dataset_kwargs: Dict[str, Any]) Union[SFTDataset, PackedDataset][source]

配置一个包含用户指令提示和模型响应的自定义数据集。

此构建器函数可用于直接从yaml配置中配置自定义指令数据集,作为SFTDataset的替代方案,因为它旨在易于配置。

数据集应遵循以下格式:

|  input          |  output          |
|-----------------|------------------|
| "user prompt"   | "model response" |

如果你的列名不同,你可以使用column_map参数来更改预期的列名。例如,如果你的数据集有列"question""answer",你可以使用:

column_map = {"input": "question", "output": "answer"}

训练期间提示的掩码由train_on_input标志控制,该标志默认设置为False - 如果train_on_input为True,提示在训练期间使用并影响损失。 - 如果train_on_input为False,提示被掩码(标记替换为-100)

Parameters:
  • tokenizer (ModelTokenizer) – 模型使用的分词器,实现了tokenize_messages方法。

  • source (str) – Hugging Face 上数据集仓库的路径。对于本地数据集, 将 source 定义为数据文件类型(例如“json”、“csv”、“text”), 在 data_files 中传入文件路径,并设置 split="train"。有关更多详细信息,请参阅 Hugging Face 的 load_dataset

  • column_map (可选[字典[str, str]]) – 一个映射,用于将预期的“输入”和“输出”列名更改为数据集中实际的列名。键应为“输入”和“输出”,值应为实际的列名。默认值为None,保留默认的“输入”和“输出”列名。

  • train_on_input (bool) – 模型是否在用户提示上进行训练。 默认值为 False。

  • new_system_prompt (可选[str]) – 如果指定,将预置一条系统消息。这可以作为指导模型响应的指令。默认值为 None。

  • packed (bool) – 是否在训练前将数据集打包到分词器的max_seq_len。默认值为False。

  • filter_fn (可选[Callable]) – 用于在预处理之前过滤数据集的可调用对象。有关更多详细信息,请参阅Hugging Face的文档

  • split (str) – split 参数用于 datasets.load_dataset。您可以使用此参数加载给定拆分的子集,例如 split="train[:10%]"。默认值为“train”。

  • **load_dataset_kwargs (Dict[str, Any]) – 传递给 load_dataset 的额外关键字参数, 例如 data_filessplit

示例:

my_dataset.json
[
    {
        "question": "What time is it in London?",
        "answer": "It is 10:00 AM in London.",
    },
    {
        ...
    },
    ...,
]
>>> from torchtune.datasets import instruct_dataset
>>> dataset = instruct_dataset(
...     tokenizer=tokenizer,
...     source="json",
...     data_files="my_dataset.json",
...     column_map={
...         "input": "question",
...         "output": "answer",
...     },
...     train_on_input=False,
...     packed=False,
...     split="train",
... )
>>> tokens = dataset[0]["tokens"]
>>> tokenizer.decode(tokens)
"What time is it in London?It is 10:00 AM in London."

这也可以通过yaml配置来完成:

dataset:
  _component_: torchtune.datasets.instruct_dataset
  source: json
  data_files: my_dataset.json
  column_map:
    input: question
    output: answer
  train_on_input: False
  packed: False
  split: train
Returns:

配置的 SFTDataset

PackedDataset 如果 packed=True

Return type:

联合[SFTDataset, PackedDataset]

Raises:

ValueError – 如果 packed=True 并且 tokenizer.max_seq_len 未设置。