大佬教程收集整理的这篇文章主要介绍了在变分自编码器 keras 中实现 mean 和 log_variance,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
作为 Keras 中 VAE https://keras.io/examples/generative/vae/ 的实现,我们必须通过均值和 log_variance 来计算潜在空间中的分布。
class Sampling(layers.Layer):
"""Uses (z_mean,z_log_var) to sample z,the vector enCoding a digit."""
def call(self,inputs):
z_mean,z_log_var = inputs
batch = tf.shape(z_mean)[0]
dim = tf.shape(z_mean)[1]
epsilon = tf.keras.BACkend.random_normal(shape=(batch,dim))
return z_mean + tf.exp(0.5 * z_log_var) * epsilon
# flatten layer
x = layers.Flatten()(X)
x = layers.Dense(16,activation="relu")(X)
z_mean = layers.Dense(latent_dim,name="z_mean")(X)
z_log_var = layers.Dense(latent_dim,name="z_log_var")(X)
z = Sampling()([z_mean,z_log_var])
encoder = keras.Model(encoder_inputs,[z_mean,z_log_var,z],name="encoder")
encoder.sumMary()
我不明白两个密集层如何在不做任何特殊计算的情况下表示均值和对数方差?因为上面的代码只是简单地创建了一个密集层,并从前一个展平层接收结果。
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)
以上是大佬教程为你收集整理的在变分自编码器 keras 中实现 mean 和 log_variance全部内容,希望文章能够帮你解决在变分自编码器 keras 中实现 mean 和 log_variance所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。