大佬教程收集整理的这篇文章主要介绍了分割概率图取决于 CPU 或 GPU,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我在 tensorflow 中写了一个语义分割模型。该模型在 cpu 中训练,预测也在 cpu 中完成。 一段时间后,我在 GPU 机器上再次运行预测,我注意到概率图中存在一些非常小的差异(附图)。 另外,我想检查一下batch size是否影响了预测分布(我一开始以为没有影响)。
我做了一个小实验来描述这四种情况:
A1) 在 cpu 中训练的模型和在 cpu 中运行的预测 --> Batch Size = 1
A2) 在 cpu 中训练的模型和在 cpu 中运行的预测 --> Batch Size = 64
B1) 在 cpu 中训练的模型和在 GPU 中运行的预测 --> Batch Size = 1
B2) 在 cpu 中训练的模型和在 GPU 中运行的预测 --> Batch Size = 64
我已经总结了附图中测试集中其中一张图像的一部分的结果。
我们可以观察到:
这是重现该功能的 colab 链接。
所以我的主要问题是:
分段取决于 RAM。当进程在 RAM 中换入和换出时,将使用不同类型的算法。分段依赖于内存,因此,GPU 直接在页面框架的不同块上进行分段。
,此问题已在 Keras' github 中发布,Keras 团队已相应回答。
可以提出以下关键点:
TF_DETERMINISTIC_OPS=1
有助于解决不确定性行为。以上是大佬教程为你收集整理的分割概率图取决于 CPU 或 GPU全部内容,希望文章能够帮你解决分割概率图取决于 CPU 或 GPU所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。