浅析Attention

发布时间:2024年01月07日

?

本质:

Attention机制的本质来自于人类视觉注意力机制。人们在看东西的时候一般不会从头看到尾全部都看,往往只会根据需求观察注意特定的一部分。简单来说,就是一种权重参数的分配机制,目标是协助模型捕捉重要信息。

原理:

具体一点就是,给定一组<key,value>,以及一个目标(查询)向量query,attention机制就是通过计算query与每一组key的相似性,得到每个key的权重系数,再通过对value加权求和,得到最终attention数值。

作用:

Attention机制可以增强神经网络输入数据中某些部分的权重,同时减弱其他部分的权重,以此将网络的关注点聚焦于数据中最重要的一小部分。例如,在翻译任务中,Attention机制可以使模型集中于输入序列的相关部分。

优点:

Attention机制的引入主要有三个优点:

  • 参数少:模型复杂度跟CNN、RNN相比,复杂度更小,参数也更少。
  • 速度快:Attention解决了RNN不能并行计算的问题。Attention机制每一步计算不依赖于上一步的计算结果,因此可以和CNN一样并行处理。
  • 效果好:Attention是挑重点,就算文本比较长,也能从中间抓住重点,不丢失重要的信息。

问题:

并行计算导致了丢失位序的问题

文章来源:https://blog.csdn.net/weixin_52261094/article/details/135442963
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。