大佬教程收集整理的这篇文章主要介绍了通过 nn.init.constant 和 (bias=1) 在 pytorch 中初始化偏差的区别,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在为 AlexNet 编写代码,但我对如何初始化权重感到困惑
有什么区别:
for layer in self.cnnnet:
if isinstance(layer,nn.Conv2d):
nn.init.constant_(layer.bias,0)
和
nn.linear(shape,bias=0)
方法 nn.init.constant_
接收一个要初始化的参数和一个用来初始化它的常量值。在您的情况下,您使用它来初始化值为 0 的卷积层的偏置参数。
方法 nn.Linear
bias
参数是一个布尔值,说明您希望图层是否有偏差的天气。通过将其设置为 0
,您实际上是在创建一个完全没有偏差的线性层。
一个好的做法是从 PyTorch 对每一层的默认初始化技术开始。这只是通过创建层来完成的,pytorch 隐式初始化它们。在更高级的开发阶段,您还可以根据需要明确更改它。
有关详细信息,请参阅 nn.Linear 和 nn.Conv2d 的官方文档。
以上是大佬教程为你收集整理的通过 nn.init.constant 和 (bias=1) 在 pytorch 中初始化偏差的区别全部内容,希望文章能够帮你解决通过 nn.init.constant 和 (bias=1) 在 pytorch 中初始化偏差的区别所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。