Positional Encoding
在任何一门语言中,词语的位置和顺序对句子意思表达都是至关重要的。传统RNN模型天然有序,在处理句子时,以序列的模式逐个处理句子中的词语,这使得词语的顺序信息在处理过程中被天然的保存下来,并不需要额外的处理。
由于Transformer模型没有RNN或CNN的顺序结构,句子中的词语都是同时进入网络进行处理,所以没有明确的关于单词在源句子中位置的相对或绝对的信息。为了让模型理解序列中每个单词的位置/顺序,Transformer论文中提出了使用一种叫做 Positional Encoding(位置编码) 的技术。这种技术通过为每个单词添加一个额外的编码来表示它在序列中的位置,这样模型就能够理解单词在序列中的相对位置。
1 位置敏感性
位置敏感性(position-insensitive)的定义是:
如果模型的输出会随着输入文本数据顺序的变化而变化,那么这个模型就是关于位置敏感的,反之则是位置不敏感的。
RNN和textCNN是位置敏感的
无位置编码的Transformer是位置不敏感的
Positional Encoding的引入,就是用来表征文本中词与词之间的顺序关系,解决Transformer的位置敏感性问题。
2 Positional Encoding的概念
Positional Encoding就是将位置信息嵌入到Embedding词向量中,让Transformer保留词向量的位置信息,可以提高模型对序列的理解能力。
理想的位置编码应该满足:
为序列中每个位置的token输出唯一的编码
不同长度的句子之间,任意两个字的差值应该保持一致
外推性:编码值应该是有界的,应该能在不付出任何努力的条件下泛化到更长的句子中
3 Positional Encoding的分类
最朴素的想法是为每个token赋予一个数字,如第一个字为1,第二个字为2。
但是这个数字会随着文本长度变长而变得很大。在推理时,如果没有看过某个特定长度的样本,会导致外推性很弱。比如训练时长度为2K,用户输入是4K,可能会导致模型性能急剧下降。
3.1 可学习位置编码
Learned Positional Embedding
方法直接对不同的位置随机初始化一个position embedding,加在word enbedding上输出模型,作为参数进行训练。

BERT使用的位置编码就是可学习位置编码。
优点
灵活性高:能适应特定任务的需求,无需人工设计规则
缺点
外推性差:训练时的最大序列长度限制了推理时的外推能力。若测试文本远超训练长度,新增位置编码未经过训练,可能导致性能下降
依赖海量数据:需要大量数据才能学习到有意义的编码,小数据集可能导致过拟合或编码无意义
3.2 sinusoidal位置编码
使用sin,cos交替创建positional encoding,用正余弦表示绝对位置,通过内积来表征相对位置。
pos代表token在序列中的位置,假设句子的长度为L,则 。i的范围可以从0取到 ,最终的维度和一样。
10000
是一个经验值,其作用类似于调节频率范围的超参较小的分母会导致波长较短,意味着相邻位置的编码差异剧烈,相隔稍远的两个位置,其编码值已经几乎没有统计相关性,导致过度关注局部信息,难以建立长依赖
较大的分母会导致波长较长,意味着相邻 token 之间的位置编码差值非常小,容易丢失局部细节
为什么这样的正余弦的组合可以表示一个位置或者顺序?
假设用一个二进制的形式表示数字:

可以观察到不同位之间变化的速度:最低位之间每个数字交替变化,第二低位每两个数字翻转一次。但是用二进制值会在浮点世界里造成空间浪费。所以反过来,我们可以使用它们对应的浮点连续值——三角函数。实际上,它们等价于交替变换的位。而且,通过降低它们的频率,我们也可以实现从红色的位走到橙色的位。
三角位置编码的另一个特性是,它允许模型毫无费力地把握相对位置。这是一段原论文的引用:

公式:
对于位置pos+k的positional encoding:
其中,
则:
因此:
其中为常数
所以可以被线性表示
计算两者的内积,可以发现:
内积会随着相对位置的递增而减小,从而表征位置的相对距离。
但是由于距离的对称性,虽然能反映相对位置的距离关系,但是无法区分方向。
位置嵌入还有一种更直觉的解释,就是把它想象成一个钟(因为余弦和正弦就是单元圆的概念)。位置编码的每两个维度可以看成是钟的针(时针、分针、秒针等)。它们从一个位置移动到下一个位置就是在不同的频率下旋转它们的针。所以,尽管没有公式推导,它也能立刻告诉你为什么那个旋转矩阵存在。
3.2.1 正余弦位置编码的代码实现
import torch
import torch.nn as nn
class PositionalEncoding(nn.module):
'''sincos'''
def __init__(self, d_model, seq_len):
super().__init__()
# 和输入一样大小的维度
self.encoding = torch.zeros(seq_len, d_model)
# 不需要计算梯度
self.encoding.requires_grad = False
pos = torch.arrange(0, seq_len)
pos = pos.float.unsqueeze(dim=1)
_2i = torch.arange(0, d_model, step=2).float()
self.encoding[:, 0::2] = torch.sin(pos / (10000 ** (_2i / d_model)))
self.encoding[:, 1::2] = torch.cos(pos / (10000 ** (_2i / d_model)))
def forward(self, x):
batch_size, seq_len = x.size()
return self.encoding[:seq_len, :]
class TokenEmbedding(nn.Embedding):
"""
Token Embedding using torch.nn
they will dense representation of word using weighted matrix
"""
def __init__(self, vocab_size, d_model):
"""
class for token embedding that included positional information
:param vocab_size: size of vocabulary
:param d_model: dimensions of model
"""
super(TokenEmbedding, self).__init__(vocab_size, d_model, padding_idx=1)
class TransformerEmbedding(nn.Module):
"""
token embedding + positional encoding (sinusoid)
positional encoding can give positional information to network
"""
def __init__(self, vocab_size, max_len, d_model, drop_prob, device):
"""
class for word embedding that included positional information
:param vocab_size: size of vocabulary
:param d_model: dimensions of model
"""
super(TransformerEmbedding, self).__init__()
self.tok_emb = TokenEmbedding(vocab_size, d_model)
self.pos_emb = PositionalEncoding(d_model, max_len, device)
self.drop_out = nn.Dropout(p=drop_prob)
def forward(self, x):
tok_emb = self.tok_emb(x)
pos_emb = self.pos_emb(x)
return self.drop_out(tok_emb + pos_emb)
3.3 旋转位置编码RoPE
RoPE主要借助了复数的思想
为了能利用上 token 之间的相对位置信息,假定query向量和key向量之间的内积操作,可以被一个函数表示:
左边是含有绝对位置信息的q和k,右边的输入是相对位置信息
假定现在词嵌入向量的维度是两维,RoPE利用2维度平面上的向量的几何性质,再结合复数的性质,神奇般的找到了满足上述等式的和,其形式如下:
这里面的 Re 表示复数的实部,推导后可以这样表示:
同理,
最终,
RoPe self-attention的计算步骤是:

对于 token 序列中的每个词嵌入向量,首先计算其对应的 query 和 key 向量
然后对每个 token 位置都计算对应的旋转位置编码
接着对每个 token 位置的 query 和 key 向量的元素按照 两两一组 应用旋转变换
最后再计算 query 和 key 之间的内积得到 self-attention 的计算结果
3.3.1 旋转位置编码的代码实现
import torch
import torch.nn as nn
import torch.nn.functional as F
import math
def RoPE(q, k):
# q,k: (bs, head, max_len, output_dim)
batch_size = q.shape[0]
nums_head = q.shape[1]
max_len = q.shape[2]
output_dim = q.shape[-1]
# (bs, head, max_len, output_dim)
pos_emb = sinusoidal_position_embedding(batch_size, nums_head, max_len, output_dim, q.device)
# cos_pos,sin_pos: (bs, head, max_len, output_dim)
# 看rope公式可知,相邻cos,sin之间是相同的,所以复制一遍。如(1,2,3)变成(1,1,2,2,3,3)
cos_pos = pos_emb[..., 1::2].repeat_interleave(2, dim=-1) # 将奇数列信息抽取出来也就是cos 拿出来并复制
sin_pos = pos_emb[..., ::2].repeat_interleave(2, dim=-1) # 将偶数列信息抽取出来也就是sin 拿出来并复制
# q,k: (bs, head, max_len, output_dim)
q2 = torch.stack([-q[..., 1::2], q[..., ::2]], dim=-1)
q2 = q2.reshape(q.shape) # reshape后就是正负交替了
# 更新qw, *对应位置相乘
q = q * cos_pos + q2 * sin_pos
k2 = torch.stack([-k[..., 1::2], k[..., ::2]], dim=-1)
k2 = k2.reshape(k.shape)
# 更新kw, *对应位置相乘
k = k * cos_pos + k2 * sin_pos
return q, k
3.4 ALiBi
ALiBi全称是Attention with Linear Biases,线性偏差注意力。不像标准transformer那样,在embedding层添加位置编码,而是在softmax的结果后添加一个静态的不可学习的偏置项。也就是说,通过改变 注意力机制的权重计算 来实现对位置的记录。

传统注意力计算公式为:
加入 ALiBi 偏置后的注意力机制公式为:
是一个与每对 Query-Key 之间的相对距离相关的偏置矩阵。
3.4.1 偏置矩阵的构造方式
一个二维矩阵,其中第 项表示第 个token和第 个token的相对距离
对于每一个注意力头,指定一个斜率,越靠近的 token,其偏置越小,越远的 token,其偏置越大。
整个偏置矩阵会被加到注意力 logits 上
3.4.2 ALiBi的代码实现
import torch
def build_alibi_bias(seq_len, num_heads):
# 斜率的设定,通常用不同的值给不同头(这只是个例子)
slopes = torch.tensor([-(2 ** (-i)) for i in range(num_heads)]).unsqueeze(1).unsqueeze(1) # shape: (heads, 1, 1)
# 构造相对距离矩阵 shape: (1, seq_len, seq_len)
# entry [i][j] = j - i
position_ids = torch.arange(seq_len).unsqueeze(0)
relative_positions = position_ids - position_ids.T # shape: (seq_len, seq_len)
relative_positions = relative_positions.unsqueeze(0) # (1, seq_len, seq_len)
# 广播乘法,得到最终 bias:每个头一个
alibi_bias = slopes * relative_positions # shape: (heads, seq_len, seq_len)
return alibi_bias
# 示例
num_heads = 4
seq_len = 6
alibi_bias = build_alibi_bias(seq_len, num_heads)
优点
不用对模型结构做任何更改
缺点
如果直接把位置外推到没见过的地方会导致模型灾难性崩溃
4 外推性问题
现如今很多大模型都开始支持超过4096长度的推理,例如GPT-4支持超过30k,ChatGLM2-6B也支持最长为32K的文本,但是由于显存资源的限制,这些大模型在真正在训练过程中不一定要训练这么长的文本,通常在预训练时只会设计到4k左右,因此如何确保在模型推理阶段可以支持远远超过预训练时的长度,是目前大模型的核心问题之一,我们将这一问题归为大模型的外推性。
训练和预测的长度不一致的问题,主要体现在两个方面:
预测的时候用到了没训练过的位置编码(不论是绝对位置还是相对位置)
预测的时候注意力机制所处理的token数量远超训练时的数量。
解决长文本外推性问题的一个简单有效的方法是Attention Mask,如图所示:

通过类似滑动窗口的结构,约束一个每个token只能对局部区域的token计算Attention值,因此对于相对位置大小不会超过窗口大小
Attention只会在窗口内计算,避免了对大量的token的Attention进行加权平均导致最终权重过度“平滑”现象。
qk之后减去一个矩阵M,M的形状如下:

5 总结
为什么需要位置编码
什么是位置敏感性
理想的位置编码应该满足什么条件
常见的位置编码介绍一下
三角函数位置编码的公式
为什么频率上要除以10000
相对位置关系如何表征
手撕三角函数编码
为什么RoPe具有很强的外推性
参考
Last updated