文本完成数据集¶
- torchtune.datasets.text_completion_dataset(tokenizer: ModelTokenizer, source: str, column: str = 'text', add_eos: bool = True, packed: bool = False, split_across_pack: bool = True, split: str = 'train', filter_fn: Optional[Callable] = None, **load_dataset_kwargs: Dict[str, Any]) Union[TextCompletionDataset, PackedDataset][source]¶
从类似于预训练中使用的数据集的自由形式、非结构化文本语料库中构建可配置的数据集。此方法应用于从yaml配置中配置自定义文本数据集,而不是直接使用
TextCompletionDataset,因为它是为了配置友好而设计的。- Parameters:
tokenizer (ModelTokenizer) – 模型使用的分词器,实现了
tokenize_messages方法。source (str) – Hugging Face 上数据集仓库的路径。对于本地数据集, 将 source 定义为数据文件类型(例如“json”、“csv”、“text”),并在
data_files中传递文件路径。有关更多详细信息,请参阅 Hugging Face 的load_dataset(https://huggingface.co/docs/datasets/en/package_reference/loading_methods#datasets.load_dataset.path)。column (str) – 样本中包含文本数据的列名。这通常是Hugging Face数据集或表格数据所必需的。对于只有单列的本地数据集(例如非结构化的txt文件),使用默认的“text”,这是Hugging Face数据集加载到内存时使用的默认值。默认值为“text”。
add_eos (bool) – 是否在序列末尾添加一个EOS标记。默认值为True。
packed (bool) – 是否在训练前将数据集打包到
max_seq_len。默认值为False。split_across_pack (bool) – 如果一个包中的最后一个样本不适合
max_seq_len,则将样本分割到下一个包中,或将其完全移动到下一个包的开头。对于预训练,通常将其设置为True以进行一般文本完成。对于微调,通常将其设置为False以避免在指令调优中截断句子。如果packed=False,则忽略此参数。默认值为True。split (str) –
split参数用于datasets.load_dataset。您可以使用此参数加载给定拆分的子集,例如split="train[:10%]"。默认值为“train”。filter_fn (可选[Callable]) – 用于在预处理之前过滤数据集的可调用对象。有关更多详细信息,请参阅Hugging Face的文档。
**load_dataset_kwargs (Dict[str, Any]) – 传递给
load_dataset的额外关键字参数。
示例
>>> from torchtune.datasets import text_completion_dataset >>> dataset = text_completion_dataset( ... tokenizer=tokenizer, ... source="allenai/c4", ... column="text", ... data_dir="realnewslike", ... packed=False, ... split="train", ... )
这也可以通过yaml配置来完成:
dataset: _component_: torchtune.datasets.text_completion_dataset source: allenai/c4 column: text data_dir: realnewslike packed: False split: train
- Returns:
- 配置的
TextCompletionDataset 或
PackedDataset如果packed=True
- 配置的
- Return type:
- Raises:
ValueError – 如果
packed=True并且tokenizer.max_seq_len未设置。