‘Annotated’《The Annotated Transformer》(Ep.1)
93–139 分钟
“To see a World in a Grain of Sand
And a Heaven in a Wild Flower.”

Your Sincerely
Self-Attention

Notice: 本文系列分为2篇,核心为本文Ep.1,另有Ep.2处于本文同一分类目录下

全文阅读时间较长,主要借助网络经典材料加以个人思考解读,如有误欢迎斧正

近来浅尝一下Transformer,由于原论文《Attention Is All You Need》https://arxiv.org/abs/1706.03762 入手较难,加上PyTorch Doc中Transformer API源代码也不易直接上手(对于我这种小白而言),故找到Harvard NLP的一份注释+上手导读《The Annotated Transformer》https://nlp.seas.harvard.edu/2018/04/03/attention.html 其中代码以PyTorch较为基本的语法思路基本上从0实现Transformer模型整体架构,但对于我这种初学者仍然不甚友好。于是我进行更为详细注解斟酌,供诸位茶余饭后以怡情。

首先,我们找到原论文中对于Transformer模型架构的整体描述与绘图:

整个Transformer模型架构分为左右两侧,分别是编码器(Encoder)和解码器(Decoder)。Transformer模型常用于词语预测/机器翻译任务,当我们喂给模型源文本(source)时,数据的流动方向是:

Source
Embed + PE
Encoder Layers
特征记忆 (K, V)
注入特征至 Cross-Attention
Target (右移)
Embed + PE
Masked Self-Attention
上下文表示
预测输出 Out

进一步阐释数据的2支路流动

① 我们手中的原始(source)输入喂给Encoder之后,先通过嵌入层(Embedding)并加入位置编码使独热的词向量转变为稠密的特征向量并有各自的位置编码(PE)(因为各词在句子中位置不同);随后我们看到这些向量在经过内部两个层部分(之后详说)处理之后最终得到”含义“(Memory);

② Decoder获得的输入是右移后的Target(即翻译任务/预测任务的正确答案),这些词向量同样会经过Embed+PE;随后我们看到它们却先经过一个掩码多头注意力层部分,然后参考查询从Encoder传来的特征记忆(Memory)得到上下文表示(这里是交叉注意力机制);最后通过generator得到所有位置上每个词的预测概率值,进而可以选得最优解out。

2%

下面以《The Annotated Transformer》代码为基础进行模型讲解阐释,为内容简要之需,模型内部涉及的各个小板块的详尽讨论将会放至各篇文章中。

  • 整体Encoder-Decoder构架

这是Transformer所采用的EncoderDecoder整体大框架,继承神经网络通用父类nn.Module,其中包含的对象就只有5个(见__init__初始化部分)。
① forward是模型训练时调用的主函数,其与decode函数返回结果相同,但是起到全局调度作用,在训练时形成准确答案语句的memory用于给decoder同步纠错,测试的时候不断调用forward预测下一个词
② encode是encoder使用的功能函数,描述encoder工作的全过程,得到的是memory;
③ decode是decoder使用的功能函数,描述decoder工作的基本全过程,得到的是最终的上下文表示(仅剩最后的线性变换得到logits再进一步将其转换为概率值输出)。

  • 上述架构可以看到少了最后的两个步骤:线性变换(Linear)得到logits + logits转变为概率值输出(SoftMax)

这一段在上述EncoderDecoder架构中可以看出是一个generator来实现,现在便定义一个Generator大类并将其实例化便可得到generator

注:由于在起始点所有的source/target都经过嵌入层的维度变换,从起始维度(vocab_size,即词汇表大小,词汇表中有多少个词独热向量的维度就是多少)变为我们人为设置的超参数维度(d_model,即在模型内部一直运行的隐层维度),然而最后我们需要得到每个词的概率值,因而最终维度 = vocab_size,所以需要进行一次人为线性维度变换d_model——>vocab_size
最后调用log_softmax函数对于每一个词的原始得分(logits)处理得到每一个位置处词汇表中每个单词的概率值大小,也即是forward函数的返回值
注:最后一步取log:普通的softmax概率分布通常比较平缓,而log之后,概率小的词会变成绝对值很大的负数,概率大的词接近0(使梯度下降更快,模型更敏感)

随后,将正式分别建构Encoder与Decoder,注原论文中所阐述是:“composed of a stack of N = 6 identical layers”,即Encoder与Decoder都分别由6个相同层堆叠而成

  • ”相同层堆叠“涉及层这个类对象的复制与封装,现先引入克隆函数clone:

注:必须调用深层拷贝:deepcopy:递归地拷贝对象及其内部所有的子对象,会在内存中完全重新开辟一块空间(保证相互独立!),把原件里的所有内容(包括权重、偏置、结构)复刻一份。

  • 构建完整编码器encoder

可以对照一下原论文里面的encoder建构:

刚才我们构建是直接使用 clone(layer, N),那么现在就是构建这个要被传入的layer类:
第一个子层包括:多头自注意力层 + 残差连接&层归一化;
第二个子层包括:前馈网络FFN + 残差连接&层归一化。

我们发现这两个子层中第一步操作不同,但是之后都是会进行残差连接&层归一化,进一步地,我们看到右边的Decoder中这种情况类似,因此,我们可以考虑把这种“残差连接 & 层归一化”抽象为一种特殊操作,这种特殊操作被施加在其他操作(自注意力、FFN、交叉注意力…)上,进一步将其抽象为一个类。

注意:原始论文中我们发现层归一化(Norm)和残差连接一起处于上一个操作之后,这称为post-norm:

Output=LayerNorm(x+SubLayer(x))Output = \text{LayerNorm}(x + \text{SubLayer}(x))

但在《The Annotated Transformer》中,则是采用层归一化放在子层之前,残差连接直接作用在原始特征上,这称为pre-norm:

Output=x+SubLayer(LayerNorm(x))Output = x + \text{SubLayer}(\text{LayerNorm}(x))

目前主流使用pre-norm,因为在每一层输入之前都预做一次层归一化可以使模型学习更加平稳,梯度不会爆炸。

  • 现在我们先把本文中所使用的pre-norm这个“加工操作”封装成一个类SublayerConnection

流程实现就是: 先归一化——>sublayer进行主操作——>dropout + 残差连接

  • 另外地,对我们所使用到的层归一化(LayerNorm)我们单独编写一个类实现其本质操作:

x就是在隐层中传递的数据,形状一般就是(batch_size, seq_Len, d_model),在dim = -1上操作表示在每一个Token特征向量内部求各维度元素均值。而最后一步结合概率论中心极限定律可知其实就是先使数据变成了标准的正态分布,并将标准正态分布进行“缩放 + 位移”,而缩放和位移因子都是可学习的。

15%
  • 有了单独的“加工操作”类SublayerConnection ,我们进入最核心的多头缩放点积注意力机制(Multi-Head Scaled Dot-Product Attention)的实现
  • 多头缩放点积注意力机制不好直接实现,我们先解决单头的,其中核心的就是负责数学计算的attention函数

讲个故事引入一下注意力机制:

想象你走进了一个巨大的图书馆,你的目标是:“寻找关于‘猫的寿命’的信息”,并写一篇报告

你发起了查询请求:当你走进大厅时,你脑子里清晰的那个念头——“猫的寿命是多少?”——这是你发起的查询请求

你看到了标签:图书馆里有成千上万本书。每本书的书脊上都贴着标签(如:动物百科、宠物护理、建筑学)。

眼神的停留:你扫视书架:看到“建筑学”,你的目光一闪而过。看到“宠物护理”,你停顿了一下。看到“猫科动物全书”,你的眼睛放光了

你在考虑注意力的分配:你只有8h就得交一篇报告出来,于是你决定把 80%心思放在《猫科动物全书》上,15% 放在《宠物护理》上,剩下的 5%留给其他可能相关的书。

管理员的禁令:管理员过来说:“三楼还没开放,你不准看那里的书。”

你终于翻开了书,疯狂获取信息:书里记载了关于猫的具体文字、图片、数据,你于是选择性地把一些内容直接抄录下来

你写完了你的报告:你把从不同书里摘录的信息组合在一起,写成了一份完整的报告

以上故事其实可以基本反映出注意力机制所做的事情及其涉及到的重要概念:查询请求是查询矩阵Q,标签是索引矩阵K,眼神的停留是attention score,注意力的分配总和加起来必=100%就是SoftMax,管理员的禁令勉强算作掩码矩阵Mask,书里面的具体内容就是内容值矩阵V,最后的报告就是得到的上下文表示矩阵Contextual Representation
所以我们目前可以感觉到,Attention机制大体而言其实就是先找相关性(Q、K),再以总和100%(SoftMax)给每份信息(V)分配一个相关性分数(attention score),最后按照这个比例进行进行信息(V)的加权求和,最后融合得到结果

所谓“点积”,实质上就是表明找“Q”、“K”相关性的时候我们使用的是矩阵点积的方法,这也一定程度上依赖于我们的数学直觉:向量之间夹角越小,说明两个向量所代表的单词语义越接近。由概率论知识,我们总是期望在经过归一化处理后输入的特征向量总是服从N(0, 1)分布,因而换句话说,两个词向量乘积越大,我们就基本认定它俩相关性越大

所谓“缩放”,在向量点积之后除以(根号下维度),一方面是为了缩小向量点积之后结果的方差;另一方面由于我们在计算“权重”时候是对所有点积结果进行SoftMax,而SoftMax函数对大数值极其不友好,如果输入值很大则会输出几乎为1和0的极端概率,此时SoftMax导数趋近于0,在反向传播时,这会导致梯度消失,模型几乎无法继续学习……

  • 当然,以上说法自然是粗糙的,下面给出缩放点积注意力机制的具体函数实现过程

attention函数的第一个返回值就是注意力机制的核心产物:Contextual Representation(上下文表示)(已经提取出来了特征)
值得注意的是,attention机制也相应的融合了dropout

整个过程可以简洁地使用一个注意力机制公式来表示:(之后可加入dropout)

Attention(Q,K,V)=softmax(QKTdk)V\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V
  • 有了attention函数(单头),我们进一步便可进入多头缩放点积注意力机制大类MultiHeadedAttention的构建:

什么是“多头”? 其实就是因为模型原本特征空间维度太大(比如 d_model=512),我们将其拆分成多个较小的子空间(比如 8 个头,每个头负责 64维),再让每个“头”独立地运行一套刚才我们讲过的缩放点积注意力逻辑,这样可以进行并行运算,最后只需要把各个头算得结果拼接起来就大功告成!(动用一下线性代数矩阵乘法的思考)

  • 有了多头缩放点积注意力机制类的构建完成,结合之前的SubLayerConnection类的构建成功,EncoderLayer(单层)里面的所有子层已被全部实现,现在我们试着构建完整的单层Encoder

注:EncoderLayer中第一个子层实行的是多头自注意力:构建的时候传入(x, x, x, mask)即是把x同时作为Q、K、V,三者相同时表明观察同一个目标,也即是自注意力
sublayer[0]和[1]都是SublayerConnection的实例化类,在之前其明确要求需要传入2个参数:x与‘sublayer’,当时的‘sublayer’指的是该子层主操作的一个占位符,而此时传入的是lambda x定义的一个以x为输入的匿名函数,后面是该函数的返回值。因为在SublayerConnection传参的时候需要的sublayer实质上是一个计算流程说明书(并不是一个具体值),所以这一套运算逻辑说明书就封装成一个函数lambda(实质上是多头点积缩放自注意力机制实例)

传入lambda之后,第一层操作:x = x + dropout(self_attention(x_norm, x_norm, x_norm, mask)) ,也就是‘pre-Norm’ + self attention + dropout + residual connection
第二层操作:主操作是后面的那个参数FFN即前馈网络,最后返回的是memory

对比下图可明确当前进度:

40%

Encoder部分搭建完毕,现在进行Decoder部分的搭建

Decoder基本搭建过程大同小异,底层思路与Encoder差别不大,但观下图,我们发现内部涉及的子层一个是掩码多头自注意力,另一个则是多头交叉注意力,那么这两个我们需借助刚才定义好的MultiHeadedAttention这个抽象大类进行构建:

  • MASK

在具体构建之前,我们先来思考一下这个“掩码”的与之前我们在Encoder中第一个子层中的那个“普通”的多头自注意力核心区别是什么?核心修改是什么为什么这里要加上掩码而之前没有

我们先来看Encoder里面的那个多头自注意力机制的实现过程,里面有这样一段代码:

这段中的mask是什么?为什么mask矩阵与scores矩阵比对,把mask矩阵中所有0存在的位置对应到scores矩阵中然后把相应scores矩阵中的元素强行修改为负无穷?但是mask矩阵中1存在的位置对应到scores矩阵中时则是会保留scores矩阵中的元素原值?

实际上,追根溯源,为了利用 GPU 的并行计算能力,我们不能一条一条地处理句子,而是要把多条句子打包成一个批次(Batch)。调用你的几何想象,每一个词向量本来是”类独热编码“,经过Embedding层之后被嵌入为高维(d_model)的特征向量,然后一个句子如果有n个词,那么这个句子就会形成 n × d_model 形状的矩阵,我们把 N 个不同的句子打包成一个Batch,那么就会堆叠成一个 N × n × d_model 的长方体,但是由于在同一个Batch里面的那些句子们通常不会长度相等,为了构成这个严谨的长方体,我们只能把空余残缺的地方全部用PAD(一般就是0)填充完成。

值得注意的是,既然PAD都是用0,那我们后面是怎么分辨这里的0是填充占位符还是说这个向量这一维真实数据就是0呢?

ANS: 因为“分辨PAD位置”这个行为我们是在词向量通过Embedding层之前进行的!上面说到,原始数据是以”类独热编码“形式进行初步编码,实际操作就是:

先对词汇表中每个词都分配一个键值(Key)(相当于构建一个字典):e.g: {”<PAD>“ : 0, “我” : 1, “爱” : 2,“你” : 3 ……} 这个地方我们就把<PAD>占位符(0)和其他词(编码非0)区分开来了!这样类独热编码之后,我们马上就去记录这些<PAD>的原始位置,记录方法比较简单,其实就是对于这个矩阵里面每个编码元素值判断是否为0,产生一个逻辑矩阵,类似于:

BATCH_PADDING_MASK (4×4)
True
False
False
False
True
True
False
False
True
True
False
False
True
True
True
True

上面这个逻辑矩阵就表示:一个Batch里面有4个句子,第1个句子真实长度为1,第2、3个句子真实长度都为2,第4个句子真实长度就为4,False处就是<PAD>符所在的地方。在PyTorch中,True = 1, False = 0,这个矩阵mask形状就是(batch_size, seq_Len),seq_Len是当前序列长度,这个形状跟最开始类独热编码后的词向量编码矩阵完全一样。

在经过Embedding之后,每个位置都会延展出长度为d_model的一维,原词向量矩阵变为(batch_size, seq_Len, d_model),下面我们考虑如果是h个”头“(head),那么原词向量会按照特征维度空间一分为h,分由h个head分别处理。此时Q、K形状都是(batch_size, h, seq_Len, d_model/n),由于:

Scores=QKTdk\text{Scores} = \frac{Q \cdot K^T}{\sqrt{d_k}}

可知:scores形状为:(batch_size, h, seq_Len, seq_Len)此时特征维度d_model已经消失

上面我们已知,mask形状目前为止还是(batch_size, seq_Len),要让mask能与scores进行比对并修改scores元素值,就必须让mask形状变得跟scores形状完全一样。在MultiHeadAttention里面有这样一行操作:

这样原始的(batch_size, seq_Len)的mask被处理为(batch_size, 1, seq_Len)

这意味着在MultiHeadAttention后续中:

意味着这里给attention函数传入的mask实际上形状已经被调整为(batch_size, 1, seq_Len)

那么后续在attention函数内部:

这里参与比较的mask利用广播机制形状变为(batch_size, n, seq_Len, seq_Len),于是可以正常进行运算

回到最开始的问题:为什么掩码多头自注意力机制需要”掩码“?事实上,这里”掩码“与上述的mask并不一样,上述的mask是通用于”普通“和”掩码“多头自注意力机制中的mask,作用是:

消除 <PAD> 的物理干扰:在深度学习中,Batch 处理要求同一个 Batch 内的所有序列长度一致。为了迁就最长的句子,短句子必须补上无效的 <PAD> 符号。

如果不加 Mask<PAD> 对应的 Embedding 虽然是 0 或随机数,但它依然会参与点积运算,产生一个注意力得分。在 Softmax 之后,这些无效位置会分走真实词汇的权重,导致语义表示被“稀释”。
Mask 的作用:它在 3D 张量的每一层(Head)和每一个 Query 位置上,精准地定位到那些 <PAD> 所在的列。通过填充 -1e9,它在物理上阻断了信息流向这些无效区域

  • 进入”掩码“多头自注意力机制中的”掩码“

首先我们要明确,Encoder的任务和Decoder是不一样的:
① Encoder手拿正确答案,它的任务是在正确答案中尽可能找到所有的隐含的词与词之间关系,并生成一份特征含义矩阵作为参考资料;
② Decoder手上不能直接拿着打开的正确资料,但是在训练时我们采取Teacher-Forcing策略,即Decoder在预测第(n+1)个词时,Teacher都会告诉他前n个词的正确答案,如果总共要预测的句子长达N个词,那么我们就用N个学生同时预测不同位置,这时分由N个Teacher监督,每个Teacher手上拿的答案是在当前学生预测前Teacher向其展示的前面所有空的正确答案,所有学生同时进行预测,并在预测完后比对答案根据各自预测的误差(概率分布间差异)每个人都对同一套Transformer权重参数进行调整

但是,Decoder(所有学生)不能在预测当前空时事先偷看到这个空的正确答案,正确答案必须总是比Decoder的预测晚一个出现,这就是我们所谓的”掩码“防偷看

如果没有掩码防偷看,那么Decoder会直接从内存中提取出正确答案并填上去,这是没有训练意义的,因为在实际任务中我们只会有Memory和训练好的Decoder帮我们完成未知的任务

为了让不同位置的学生在做出预测前只能看到自己应该看的那一部分答案,我们使用掩码机制制造一个target_mask,由于target是答案标签,我们就用target_mask遮挡答案(target)的一部分让每个学生不能看到将要预测空处的答案:

不妨,让第n个学生负责预测第n+1个空,那么我们在第n个学生处应当遮挡第n+1空之后的所有正确答案,此时利用上/下三角矩阵的特性,我们应当仿照mask矩阵制造另一个后序掩码矩阵(subsequent mask):

上述代码思路较简单,首先我们要知道subsequent_mask( )的产物应当与之前的mask一同作用在scores上,而scores(batch_size, h, seq_Len, seq_Len),attention_shape定为(1, seq_Len, seq_Len)是利用了PyTorch的广播机制(Broadcasting)https://docs.pytorch.org/docs/stable/notes/broadcasting.html 当自后向前遍历两个张量的维度大小时,会把attention_shape扩充为(1, 1, seq_Len, seq_Len),直到与scores进行计算时会表现出(batach_size, h, seq_Len, seq_Len)的性质

由于numpy中数学工具功能性质的限制,我们只有采取一种反转的方式进行构造一个下三角表示可见的矩阵:

第一步:

形成:

[0111001100010000]\begin{bmatrix} 0 & 1 & 1 & 1 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \end{bmatrix}

第二步:(下面这个矩阵会被返回为张量类型)

[TrueFalseFalseFalseTrueTrueFalseFalseTrueTrueTrueFalseTrueTrueTrueTrue]\begin{bmatrix} \text{True} & \text{False} & \text{False} & \text{False} \\ \text{True} & \text{True} & \text{False} & \text{False} \\ \text{True} & \text{True} & \text{True} & \text{False} \\ \text{True} & \text{True} & \text{True} & \text{True} \end{bmatrix}

这正是我们需要的处理矩阵!!!观察上面这个Boolean matrix,我们发现用它去处理scores最后两维形成的“相关性矩阵”可以达到掩码的目的:第一个同学只能看到第0个起始符BOS来预测第一个空,第二个同学只能看到第0、1位置的答案来预测第二个空……

《The Annotated Transformer》中给我们提供了可视化这个过程的思路:

输出为:(True (1) 通常显示为黄色/浅色。False (0) 通常渲染为紫色/深色)

75%

回归主线,我们现在已经架构好了Encoder;Decoder里面已经把第一个掩码多头缩放点积自注意力层建构完毕,对比下图看下进度:

  • 现在应该向上进入交叉注意力层

所谓交叉注意力,其实如图可以看出来,这是一条Encoder与Decoder融汇的线路,具体来讲就是Decoder在上一层掩码自注意力之后把手上拿到的考题处理了一遍,现在要开始翻阅”参考资料“了,”参考资料“就是Encoder的核心输出,即Memory: (以下来自Encoder大类代码)

我们回顾一下,之前我们在注意力机制那里引入的”图书馆查阅“故事:写报告前我们是把找到的不同书(即内容值矩阵V)里面的信息按照不同比例融合起来。 自然地,注意力机制中的V矩阵必须更换为Memory矩阵

Attention(Q,K,V)=softmax(QKTdk)V\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V

但不止于此,该公式中的K矩阵也必须换为Memory矩阵,因为K包含索引标签,依靠K才能在Memory中找到相应的语义内容值V(也可理解成”键值对“的关系),Q只负责查询,查询是由Decoder一方发起的,因而交叉注意力机制可用以下公式表示:

Cross-Attention(Q,M,M)=softmax(QMMdk)M\text{Cross-Attention}(Q, M, M) = \text{softmax}\left(\frac{QM^M}{\sqrt{d_k}}\right)M
  • 由于之前已有现成的attention函数和相应的MultiHeadAttention大类,我们直接借用以构建DecoderLayer即一个单层的Decoder架构:

第一小子层[0]操作:x = x + dropout(self_attention(norm_x, norm_x, norm_x, target_mask))
第二小子层[1]操作:交叉注意力把注意力机制中的Q与V都换成memory
最后[2]操作:x = x + dropout(feed_forward(x))(如果要进入下一层,就在下一层开始的时候进行normalize;如果所有堆叠层全部结束,在Decoder定义结尾(N层堆叠结束后)会再进行一次norm)

  • 进一步构建Decoder整体:

注:Decoder所需参数增加:x是解码器当前生成的句子;memory是编码器最终的输出(交叉注意力所需);
target_mask用于Decoder的自注意力层,防止在训练时解码器偷看下一个答案;source_mask用于滤去memory中无用的部分(<PAD>)

80%

再回顾一下Transformer整体架构,我们发现基本所有框架都已建成,现在只需要再完善实现里面的几个小工具即可

  • 先实现最开始的嵌入操作(Embedding)

虽然PyTorch的API:nn.Embedding可以直接实现嵌入操作,但是为使用方便,仍然选择封装一个特有的Embeddings类。
lut(Look-Up Table)是一个二维矩阵(Tensor),形状是(vocab_size,d_model),其实就是嵌入的主操作(改变维度),里面每一行对应字典里的一个单词(索引);每一列是一个特征维度,是浮点数,所以说lut里面就装载着所有单词对应的特征向量
我们会建立单词表(单词对应各个索引值),此时x就是输入的一连串索引,执行forward时就将索引转换为对应嵌入后的特征向量

封装独特的Embeddings类最大的原因是:由于词向量嵌入之后会立即被位置编码(加上位置编码值,在0,1之间),所以在forward函数中对特征向量各维度数值通过放大一定倍数(根号下d_model)以保护语义

  • 实现Positional Encoding(PE)位置编码:

与RNN利用时间轴先后顺序区别不同词语不同,Transformer由于用到巨大的并行计算需要给每个词向量加上相应的位置向量进行编码。

  1. 假如说用1,2,3……依次进行每一个词的位置编码怎样?
    • 不行:位置编码值太大!
  2. 用(0,1)内浮点数编码如何?
    • 不行:受句子长短影响大,同一个浮点数在不同长度句子里面表示的位置完全不同、

论文中成功的思路:用不同频率的三角函数编码(有点类似于傅里叶变换(Fourier Transformation))
在FT中我们使用交替的正余弦函数,且频率递增作为一组基,把时域信号拆分为频域信号;
在PE中我们则是进行相反的事情,把频域信号拆分为时域信号
(笔者此处不是太清楚,还未完全理解)

  • 按照论文所示公式,位置编码大类构建如下:

笔者之前做过一份关于位置编码的例子如下阐释

Position Encoding

① 使用 sin/cos 以固定表征(位置编码始终固定)
② pe(pos + k) 可以写成 pe(pos) 的线性组合(序列长度推广)
③ 通过残差连接使位置信息流入深层

Demo: 假设完整的词嵌入矩阵(look-up table)为 30000 × 512 (vocab_size × d_model),我们目标语句只有里面的三个词,那么在实际构建 Input 时我们将这三个词在 look-up table 中的稠密向量抽取出来,构成一个 3 × 512 的矩阵。位置编码矩阵在模型初始化时,通常会预先算好一个很大的“母矩阵”(比如 5000 × 512),代表这个模型最长能处理 5000 个词,由于我们现在要处理的句子只有 3 个词,模型就会从母矩阵里切下前 3 行得到一个 3 × 512 的“切片”,让切片和同样是 3 × 512 的词嵌入矩阵相加。

维 0 (sin) 维 1 (cos) 维 2 (sin) 维 3 (cos)
位置 0 sin(0)
0
cos(0)
1
sin(0)
0
cos(0)
1
位置 1 sin(1/1)
0.841
cos(1/1)
0.540
sin(1/10)
0.100
cos(1/10)
0.995
位置 2 sin(2/1)
0.909
cos(2/1)
-0.416
sin(2/10)
0.199
cos(2/10)
0.980
PE =
0,     1,     0,     1
0.841, 0.540, 0.100, 0.995
0.909, -0.416, 0.199, 0.980
  • 最后我们还得来实现FFN

FFN全称可以叫它 Point-Wise Feed-Forward Network,事实上就是它是由两个全连接线性层组成的模块,中间夹着一个非线性激活函数,做的工作也是最为基础的“线性变换——非线性激活——线性变换”。

无论是在Encoder还是Decoder中,我们看到FFN都是处于一个基本层的最后一步操作,其操作与在它之前的注意力机制不同点在于注意力机制着重于寻找不同词之间的语义关系,而FFN着重于寻找一个词不同维度之间的关系,而这样一种“先‘空间混合’(Spatial Mixing)后‘通道变换’(Channel Transformation)”是一种科学的神经网络架构。 (这种设计的科学性证明目前笔者还未查证)

既然内部组成就是两个全连接线性层组成的模块,中间夹着一个非线性激活函数,那我们直接实现:

从最后return一步可以看出来操作的全流程:
先线性变换w_1,再ReLU激活,再dropout,最后一次线性变换w_2

截止目前,我们已经完成了Transformer模型结构的完整构建!!!

  • 最后一步:使用我们之前的那些抽象类生成完整模型(自己还要设置模型中的超参数)

核心部分就在于model = { }一段,里面描述了整个Transformer模型的结构,我们回顾一下EncoderDecoder大框架中确定下来的传参:

在这里我们传入source_embed和target_embed时实际上是把要做的两种操作:embed + PE 用nn.Sequential打了个包做成一个容器,这样当调用这个容器时,输入数据会先进入第一个模块(Embeddings),其输出会自动变成第二个模块(位置编码)的输入。

99.9%

大功告成了吗?并没有…….

我们现在只是实现了Transformer的底层架构,但是当处理实际例子时会发现还有处理数据、迭代训练……各种操作以及其他的优化技巧、损失器…….模型训练一系列必备操作等着我们

在《The Annotated Transformer》中作者基本1:1复现论文中的所有内容,包括后面的多GPU训练、各种组件……考虑时间设备精力有限,笔者也是初步入门,故主要学习后面的一个简单的Copy Task实现,在下一篇文章Ep.2中逐渐完善

本文除代码学习《The Annotated Transformer》,论文解读《Attention Is All You Need》之外其余解读均出自笔者手,如有错误之处欢迎指正

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
下一篇