torch.cuda.max_memory_reserved¶
- torch.cuda.max_memory_reserved(device=None)[源代码]¶
返回给定设备上由缓存分配器管理的最大GPU内存,单位为字节。
默认情况下,这会返回自程序开始以来的峰值缓存内存。
reset_peak_memory_stats()
可用于重置跟踪此指标的起始点。例如,这两个函数可以测量训练循环中每次迭代的峰值缓存内存量。- Parameters
设备 (torch.device 或 int, 可选) – 选择的设备。返回当前设备的统计信息,由
current_device()
给出,如果device
为None
(默认)。- Return type
注意
有关GPU内存管理的更多详细信息,请参阅内存管理。