torch.cuda.reset_max_memory_cached¶
- torch.cuda.reset_max_memory_cached(device=None)[源代码]¶
重置在给定设备上由缓存分配器管理的最大GPU内存跟踪的起始点。
详情请参见
max_memory_cached()
。- Parameters
设备 (torch.device 或 int, 可选) – 选择的设备。返回当前设备的统计信息,由
current_device()
给出,如果device
为None
(默认)。
警告
此函数现在调用
reset_peak_memory_stats()
,该函数重置/所有/峰值内存统计数据。注意
有关GPU内存管理的更多详细信息,请参阅内存管理。