【论文阅读】Attention is all you need
【论文阅读】Attention is all you need
Metadata
authors:: Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, Illia Polosukhin
container:: Advances in neural information processing systems
year:: 2017
DOI::
rating:: ⭐⭐⭐⭐⭐
share:: false
comment:: 经典不解释
前言
Transformer 是谷歌在 2017 年底发表的论文 Attention Is All You Need 中所提出的 seq2seq 模型,Transformer 的提出也给 NLP 领域带来了极大震动。现如今,不少模型还是以 Transformer 作为特征抽取机制 ,比如 BERT 就是从 Transformer 中衍生出来的预训练语言模型。
Overview
Transformer 完全抛弃了传统的 CNN 和 RNN,整个网络结构完全是由 Attention 机制组成。作者认为 RNN 的固有的按照顺序进行计算的特点,限制了并行计算能力,即 RNN 只能是从左向右或是从右向左依次进行计算。
另一方面,作者在编码词向量时引入了 Position coding,即在词向量中加入了单词的位置信息,用来更好地理解语言的顺序。
Transformer 由 Encoder 和 Decoder 两个部分组成,其中 Encoder 负责将输入(自然语言序列)变换为隐藏层特征,Decoder 负责将隐藏层特征还原为自然语言序列。
Transformer Encoder
在对模型的结构有了大概了解之后,我们再仔细看看模型的具体的内部特征。
Model Architecture
按照上面的模型架构图我们可以把模型分为两部分,左半边为 Encoder,右半边为 Decoder。需要注意的是,并不是仅仅通过一层的 Encoder 和 Decoder 就得到输出,而是要分别经过层,在论文中这个数字是。
Encoder:Encoder 由个完全相同的层堆叠而成。每一层都有两个子层,从下到上依次是:Multi-Head Attention和Feed Forward,对每个子层再进行残差连接和标准化。
Decoder:Decoder 同样由个完全相同的层堆叠而成。每一层都有三个子层,从下到上依次是:Masked Multi-Head Self-Attention、Multi-Head Attention和Feed Forward,同样的对每个子层再进行残差连接和标准化。
接下来我们按照模型结构的顺序逐个进行说明。
Position Encoding
就像之前提到的,Transformer 中抛弃了传统的 CNN 和 RNN,并没有类似迭代的操作,这就意味着 Transformer 本身不具备捕捉顺序序列的能力。为了解决这个问题,论文中在编码词向量时引入了位置编码,即Positional Encoding(PE),将字符的绝对或者相对位置信息注入。
如下图所示,论文在经过 Embedding 之后,又将其与 Position Encoding 直接相加(注意:不是拼接而是简单的对应位置直接相加)
Positional Encoding 可以通过训练得到,也可以使用某种公式计算得到。论文中使用了 sin
和 cos
函数的线性变换来提供给模型位置信息:
其中表示一句话中单词的位置,是词向量维度序号,是词向量维度。
关于 Positional Encoding 的一些问题
在论文中,使用 sin
和 cos
函数的线性变换来提供位置信息,但具体为什么这么设计直接看公式还是有些难理解的。
如果让我们来设计一个简单的 Positional Encoding,一个最简单直观的方法就是,对每个词的位置进行线性的分配,但实际上这个方法并不可行。举个例子,某句话的长度为 10
,另一句话的长度为 100
,对编码位置作差,对于同样的差值,包含的意义确实完全不同的,即在两句话中间隔的字符数量明显不相同。
简而言之,理想的编码需要满足一下条件:
- 对于每个位置的词语,它都能提供一个独一无二的编码
- 词语之间的间隔对于不同长度的句子来说,含义应该是一致的
- 它的值应该是有界的
我们将公式转换一下形式:
其中
具体来说,一个词的 Positional Encoding 是这样表示的:
我们知道,是不断变大的,因此越来越小,因此频率也越来越小,这也就意味着随着词向量维度序号的增大,该位置的数字的变化频率是指数级下降的。
下图展示了 Positional Encoding 具体编码过程:
画图代码如下:
1 | import numpy as np |
Self Attention
对于输入句子,我们首先进行 Word Embedding,之后又经过 Positional Encoding 之后,最后我们得到了带有位置信息的词向量,记为。
之后就是最关键的 Self Attention 部分,Attention 的核心内容是为输入句子的每个单词学习一个权重,你甚至可以简单的理解为加权求和。
具体来说,我们需要为每个词向量准备三个向量。将所有词向量的拼接起来,我们就可以得到一个大矩阵,分别记为查询矩阵,键矩阵,值矩阵(在模型训练时,这三个矩阵都是需要学习的参数)。
之后根据计算:
关于这个公式的详细解读你可以参考我的另一篇文章 Self Attention 详解。
计算 Attention 的一个例子
(以下图片来自 mathor)
每个词向量,假设我们已经有了和查询矩阵,键矩阵,值矩阵,现在我们来计算具体的输出:
首先是第一步,为了获得第一个字的注意力权重,我们需要用第一个字的查询向量 乘以键矩阵 K
1 | [0, 4, 2] |
之后还需要将得到的值经过 softmax,使得它们的和为 1
1 | softmax([2, 4, 4]) = [0.0, 0.5, 0.5] |
有了权重之后,将权重其分别乘以对应字的值向量
1 | 0.0 * [1, 2, 3] = [0.0, 0.0, 0.0] |
最后将这些权重化后的值向量求和,得到第一个字的输出
1 | [0.0, 0.0, 0.0] |
对其它的输入向量也执行相同的操作,即可得到通过 self-attention 后的所有输出
在上面的例子中,你只需要把向量变成矩阵的形式,就可以一次性得到所有输出,这也正是 Attention 公式所包含的具体意义:
Multi-Head Attention
同时,论文又进一步提出了 Multi-Head Attention 的概念。简而言之,就是个 Self Attention 的集成。在 Self Attention 中,我们通过定义一组来对上下文进行学习,而 Multi-Head Attention 就是通过定于多组,分别对不同位置的上下文进行学习:
Add & Norm
在 Add & Norm 层中,分为两部分:残差连接和标准化。下图展示了具体的细节:
残差连接
残差连接将输出表述为输入和输入的一个非线性变换的线性叠加,通常用于解决多层网络训练的问题:
具体来说在 Transformer 中则是:
标准化
Norm指 Layer Normalization,将隐藏层归一为标准正态分布,以加速收敛。
Feed Forward
Feed Forward 层比较简单,是一个两层的全连接网络,第一层的激活函数是 ReLU,第二层无激活函数:
Transformer Encoder 整体结构
经过上面各个部分的解读,我们基本了解了 Encoder 的主要构成部分,现在简单做个小结:
-
生成词向量并进行位置编码
-
自注意力机制
-
残差连接与标准化
-
Feed Forward
-
残差连接与标准化
-
将输出送入 Decoder
Transformer Decoder
Transformer 的 Decoder block 结构,与 Encoder block 相似,但还是存在一些区别:
- 包含两个 Multi-Head Attention 层。
- 第一个 Multi-Head Attention 层采用了 Masked 操作。
- 第二个 Multi-Head Attention 层的使用 Encoder 的输出,使用上一个 Decoder block 的输出计算。
- 最后使用 softmax 计算下一个词的概率。
Masked Multi-Head Attention
Masked Multi-Head Attention 这里的 Masked 简而言之就是对数据进行遮挡,那么为什么要进行这个操作呢?
在进行 decoder 时,模型的输入是包含全部单词的所有信息的,但是对于翻译任务而言,它的流程是顺序进行的,即处理完第个单词之后,才可以处理第个单词,这也就意味着在处理第个单词的时候,模型是不应该知道第个单词之后的信息的,否则就是信息泄露了。因此,这里进行 Mask 的作用就是对这部分信息进行遮挡。
Decoder Multi-Head Attention
第二个 Multi-Head Attention 层的结构与前面讲的基本相同,唯一的不同就是使用 Encoder 的输出,使用上一个 Decoder block 的输出计算,后续的计算方法与之前描述的一致。
softmax
最后的最后,就是进行 softmax,输出概率最高的单词。
PyTorch 实现
总结
整体来说,Transformer 的结构还是非常巧妙的,完全抛弃了 CNN 和 RNN,仅仅使用 Self-Attention 进行特征提取,并且还做到了更好的效果。更可贵的是,各种基于 Transformer 架构的模型仍层出不穷,在各个领域均得到了用武之地。