torch.cuda.caching_allocator_alloc¶
- torch.cuda.caching_allocator_alloc(size, device=None, stream=None)[源代码]¶
使用CUDA内存分配器执行内存分配。
为给定的设备和流分配内存,此函数旨在用于与其他框架的互操作性。分配的内存通过
caching_allocator_delete()
释放。- Parameters
大小 (int) – 要分配的字节数。
设备 (torch.device 或 整数, 可选) – 选择的设备。如果它是
None
,则使用默认的CUDA设备。流 (torch.cuda.Stream 或 int, 可选) – 选定的流。如果为
None
,则使用所选设备的默认流。
注意
有关GPU内存管理的更多详细信息,请参阅内存管理。