程序问答   发布时间:2022-06-01  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了Pytorch 中奇怪的 Cuda 内存不足行为大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决Pytorch 中奇怪的 Cuda 内存不足行为?

开发过程中遇到Pytorch 中奇怪的 Cuda 内存不足行为的问题如何解决?下面主要结合日常开发的经验,给出你关于Pytorch 中奇怪的 Cuda 内存不足行为的解决方法建议,希望对你解决Pytorch 中奇怪的 Cuda 内存不足行为有所启发或帮助;

编辑:已解决 - 问题取决于工人数量,降低工人数量,问题已解决

我使用的是 24GB Titan RTX,我将它用于带有 Pytorch 的图像分割 Unet,

它总是以不同的批量大小将 Cuda 抛出内存,而且我有比它声明的我需要的更多的可用内存,并且通过降低批量大小,它增加了它尝试分配的内存,这没有任何意义.

这是我尝试过的:

图像大小 = 448,批量大小 = 8

  • “运行时错误:CUDA 错误:内存不足”

图像大小 = 448,批量大小 = 6

  • “运行时错误:CUDA 内存不足。尝试分配 3.12 GiB(GPU 0;24.00 GiB 总容量;2.06 GiB 已分配;19.66 GiB 空闲;PyTorch 总共保留 2.31 GiB)”

是说它试图分配 3.12GB 并且我有 19GB 可用空间并且它抛出一个错误??

图像大小 = 224,批量大小 = 8

  • “运行时错误:CUDA 内存不足。尝试分配 28.00 MiB(GPU 0;24.00 GiB 总容量;2.78 GiB 已分配;19.15 GiB 空闲;PyTorch 总共保留 2.82 GiB)”

图像大小 = 224,批量大小 = 6

  • “运行时错误:CUDA 内存不足。尝试分配 344.00 MiB(GPU 0;24.00 GiB 总容量;2.30 GiB 已分配;19.38 GiB 空闲;PyTorch 总共保留 2.59 GiB)”

减少批量大小但尝试分配更多???

图像大小 = 224,批量大小 = 4

  • “运行时错误:CUDA 内存不足。尝试分配 482.00 MiB(GPU 0;24.00 GiB 总容量;2.21 GiB 已分配;19.48 GiB 空闲;PyTorch 总共保留 2.50 GiB)”

图像大小 = 224,批量大小 = 2

  • “运行时错误:CUDA 内存不足。试图分配 1.12 GiB(GPU 0;24.00 GiB 总容量;1.44 GiB 已分配;19.88 GiB 空闲;PyTorch 总共保留 2.10 GiB)”

图像大小 = 224,批量大小 = 1

  • “运行时错误:CUDA 内存不足。试图分配 1.91 GiB(GPU 0;24.00 GiB 总容量;894.36 MiB 已分配;20.94 GiB 空闲;PyTorch 总共保留 1.03 GiB)”

即使图像大小和批量大小都非常低......

解决方法

解决- 问题取决于工人数量,降低工人数量,问题解决

大佬总结

以上是大佬教程为你收集整理的Pytorch 中奇怪的 Cuda 内存不足行为全部内容,希望文章能够帮你解决Pytorch 中奇怪的 Cuda 内存不足行为所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。
标签: