paddlespeech.cli.tts.infer 模块

class paddlespeech.cli.tts.infer.TTSExecutor[来源]

基础: BaseExecutor

方法

disable_task_loggers()

禁用当前任务中的所有日志记录器。

execute(argv)

命令行输入。

get_input_source(input_)

从命令行输入获取任务输入源。

infer(text[, lang, am, spk_id])

模型推理和结果存储在 self.output 中。

postprocess([output])

输出后处理并返回结果。

postprocess_onnx([output])

输出后处理并返回结果。

preprocess(input, *args, **kwargs)

输入预处理并返回存储在 self._inputs 中的 paddle.Tensor。

process_task_results(input_, results[, ...])

处理任务结果并在需要时重定向标准输出。

show_rtf(info)

计算当前任务的rft并显示结果。

__call__

推断_onnx

execute(argv: List[str]) bool[来源]

命令行输入。

infer(text: str, lang: str = 'zh', am: str = 'fastspeech2_csmsc', spk_id: int = 0)[来源]

模型推理和结果存储在 self.output 中。

infer_onnx(text: str, lang: str = 'zh', am: str = 'fastspeech2_csmsc', spk_id: int = 0)[来源]
postprocess(output: str = 'output.wav') Union[str, PathLike][来源]

输出后处理并返回结果。 此方法从 self._outputs 获取模型输出并将其转换为人类可读的结果。

Returns:

Union[str, os.PathLike]: 人类可读的结果,例如文本和音频文件。

postprocess_onnx(output: str = 'output.wav') Union[str, PathLike][来源]

输出后处理并返回结果。 此方法从 self._outputs 获取模型输出并将其转换为人类可读的结果。

Returns:

Union[str, os.PathLike]: 人类可读的结果,例如文本和音频文件。

preprocess(input: Any, *args, **kwargs)[来源]

输入预处理并返回存储在self._inputs中的paddle.Tensor。输入内容可以是文本(tts)、文件(asr, cls)、流(尚不支持)或任何需要的内容。

Args:

输入 (任意): 输入文本/文件/流或其他内容。