本文作者:云初冀北

基于CUDA out of memory的一种神奇解决方式

基于CUDA out of memory的一种神奇解决方式摘要: CUDA out of memory的解决我的输入样本维度是(1000,12,24,72),一开始我是这么输入数据的:trainer.train(x_train, t_train,...

CUDA?= out of memory的解决

我的输入样本维度是(1000,12,24,72),一开始我是这么输入数据的:

trainer.train(x_train, t_train, x_val, t_val)

发现必溢出,后来我取出其中400个样本输入:

trainer.train(x_train[:400], t_train[:400], x_val, t_val)

发现不溢出了,训练正常,然后我把400删掉,但没删冒号:

trainer.train(x_train[:], t_train[:], x_val, t_val)

竟然也没有溢出!!!虽然训练速度降了,但是也能正常训练,我不是很懂原理是啥,好神奇!

但是样本量一大起来,即使用冒号法还是可能会溢出。比方说我后来把4000个样本作为x/t_train:

>>>x_train.shape (4000,12,24,72) >>>t_train.shaPe (4000,24) >>>trainer.train(x_train[:], t_train[:], x_val, t_val) RuntimeError:CUDA out of memory...

之所以说“可能”会溢出,是因为确实是有小概率能正常训练的,但是大部分情况还是会out of memory&hellIP;

不过这真的是一个“神奇”的方法,能从一定程度上解决CUDA out of memory 的问题。希望大佬能解释一下这其中的原理~谢谢!

-------------------------------------------------------------------

再附上两个我昨天看到的两种不同的解决方案。

一个是减少带梯度的中间变量(即非叶子节点)。简言之,能一代码搞定的,尽量不要写成多行,即使写成多行,也要尽可能减少新变量的建立。

另一个是在eval的时候,让所有的变量都不带梯度。只需要添加一行代码:

with torch.no_grad():     outpuTS =.net_(inputs)

在with语句里的所有变量reqUIres_grad都是False。

CUDA error: out of memory问题

本人遇到的问题是在训练是正常,一到验证时就会出现cuda error: out of memory的问题

解决思路溯寻

1.首先就是考虑减少batch_size和num_worker,对于我的情况不奏效

2.然后找到pin_memory发现是设置的True,改为false,仍旧不管用

3.括把

 # Empty GPU cache         if torch.cuda.is_avaiLable():             torch.cuda.empty_cache()

放到报错位置的前后,不奏效

4.后来再聚焦问题关键,是一到验证就会出问题,所以专门查攻略,我初步怀疑是因为验证没有参与反向传播,梯度累积,内存爆了,但当时代码中有with torch.no_grad(): ,所以并没有发现关键,知道看到别人里面 forWord是放在with torch.no_grad()后面的,所以最后

with torch.no_grad():                 # Forward pass                 loss, np_probs, hv_logits = self.forward(images, tarGets)

问题解决!

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持云初冀北。

免责声明
本站提供的资源,都来自网络,版权争议与本站无关,所有内容及软件的文章仅限用于学习和研究目的。不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,我们不保证内容的长久可用性,通过使用本站内容随之而来的风险与本站无关,您必须在下载后的24个小时之内,从您的电脑/手机中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。侵删请致信E-mail:Goliszhou@gmail.com
$

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,69人围观)参与讨论

还没有评论,来说两句吧...