程序笔记   发布时间:2022-07-15  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了paper 4:Attention is all you need大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

 

原博链接: 论文解读:Attention is All you need - 知乎 (zhihu.com)

Attention用于计算“相关程度”。

例如在翻译过程中,不同的英文对中文的依赖程度不同。

Attention:$query space times key-value pairs space rightarrow attention output vector, $

$(Q, (K_i, V_i)) mapsto output$

其中$Q$指query,$(K_i, V_i)$指key-value pair.

step 1: 计算$Q$和$K$的相似度, 用$f$表示

$$ f(Q, K_i), i=1,2,ldots,m $$

step 2: 将上一步的相似度进行softmax操作, 归一化

$$ alpha_i = frac {e^{f(Q, K_i)}} {sum_{j=1}^m e^{f(Q, K_j)}} $$

step 3: 针对计算出来的权重$alpha_i$, 对V中所有的values进行加权求和, 得到Attention向量

$$ output = sum_{i=1}^m alpha_i V_i $$

 

回过头来看step 1的相似度计算, 有如下四种:

  • 点乘 dot product: $f(Q, K_i) = Q^T K_i$
  • 权重 general: $f(Q, K_i) = Q^T W K_i$
  • 拼接权重 concat: $f(Q, K_i) = W [Q; K_i]$
  • 感知机 percepton: $f(Q, K_i) = V^T tanh (WQ+UK_i)$

大佬总结

以上是大佬教程为你收集整理的paper 4:Attention is all you need全部内容,希望文章能够帮你解决paper 4:Attention is all you need所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。