大佬教程收集整理的这篇文章主要介绍了我在 Pytorch 中的 resnet 实现对吗?,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
上周我为我的 SRGAN 代码实现了一个 resnet 块,但我对实现的一个方面表示怀疑。
当你通过残差跳过连接传递输入时,你 将其从计算图中分离(如 Pytorch 中的 var.detach()) 还是让它在图表中持续存在?
如果是这样,这是否意味着在向后传递期间,输入的权重会受到下一层连接和跳过连接的影响?
下面是我在 Pytorch 中的实现代码:
class resnetBlock(nn.ModulE):
def __init__(self,kernel_size,StriDe,n_filters,in_chAnnels):
super(resnetBlock,self).__init__()
self.conv1 = nn.Conv2d(in_chAnnels=in_chAnnels,kernel_size=kernel_size,StriDe=StriDe,out_chAnnels=n_filters,padding=1,bias=falsE)
self.bn = nn.batchnorm2d(n_filters)
self.prelu = nn.PReLU()
self.conv2 = nn.Conv2d(in_chAnnels=n_filters,bias=falsE)
def forWARD(self,X):
xp = torch.clone(X).detach() #Detached this variable xp and passed it through the skip connection
x = self.prelu(self.bn(self.conv1(X)))
x = xp.add(self.prelu(self.bn(self.conv2(X))))
return x
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)
以上是大佬教程为你收集整理的我在 Pytorch 中的 resnet 实现对吗?全部内容,希望文章能够帮你解决我在 Pytorch 中的 resnet 实现对吗?所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。