本文共 4221 字,大约阅读时间需要 14 分钟。
阅读笔记
code :
source : EMNLP 2020
BERT在用于下游各项NLP任务上都有明显提升,但是被发现直接作为sentence embedding的预训练模型效果不好,作者发现这是因为没有很好地挖掘BERT里面的语义信息,作者从理论上证明了bert的训练目标(MLM,NSP)和相似度任务之间差异,并可视化展示。发现bert的语义空间是非光滑的各向异性(non-smooth anisotropic)的语义空间,不利于用于语义相似任务。那么将其转换为光滑的各向同性的高斯分布是不是就解决了呢?因此作者提出利用有监督的normalizing flows来做空间转换,并且实验证明有超过SOTA。
问题:
bert的掩码任务MLM,通过句子的上下文来预测被掩码的单词 x x x, 其向量表示 w x w_x wx, h c h_c hc是其上下文 c c c经过深度网络之后的向量表示,语言模型和掩码任务都是建模上下文c条件的x分布,可以表示为:
p ( x ∣ c ) = exp h c ⊤ w x ∑ x ′ exp h c ⊤ w x ′ p(x \mid c)=\frac{\exp \mathbf{h}_{c}^{\top} \mathbf{w}_{x}}{\sum_{x^{\prime}} \exp \mathbf{h}_{c}^{\top} \mathbf{w}_{x^{\prime}}} p(x∣c)=∑x′exphc⊤wx′exphc⊤wx指出,对于一个充分训练的语言模型, h c ⊤ w x \mathbf{h}_{c}^{\top} \mathbf{w}_{x} hc⊤wx可以近似的表示为:
h c ⊤ w x ≈ log p ∗ ( x ∣ c ) + λ c = PMI ( x , c ) + log p ( x ) + λ c PMI ( x , c ) = log p ( x , c ) p ( x ) p ( c ) \begin{aligned} \mathbf{h}_{c}^{\top} \mathbf{w}_{x} & \approx \log p^{*}(x \mid c)+\lambda_{c} \\ &=\operatorname{PMI}(x, c)+\log p(x)+\lambda_{c} \end{aligned} \\ \operatorname{PMI}(x, c)=\log \frac{p(x, c)}{p(x) p(c)} hc⊤wx≈logp∗(x∣c)+λc=PMI(x,c)+logp(x)+λcPMI(x,c)=logp(x)p(c)p(x,c) 其中PMI(x,c)表示x和c之间的互信息,表征的是x和c的共现近似度,而”语义“在数学空间上的表达就是共现关系的统计表示,因此,词向量和上下文向量的点击是可以反应词语和上文问的语义相似度的。因此,如果两个上下文 c c c和 c ′ c' c′和同一个词w有共现关系,那么一定程度上 c c c和 c ′ c' c′也是相似的,这表明BERT训练过程和语义相似度目标很接近,训练出的句向量也包含了句子语义相似的信息。
那么,是否是没有有效利用BERT中的句向量信息呢?
由于cos相似度和点积,都是基于向量的基是正交的且各向同性,这种情况下的向量夹角才具有可比性,如果不同的基非正交,那么不同的基向量计算出来的向量夹角没有几何意义。例如下图中,基向量是非正交,且各向异性(基向量单位向量长度不一样),计算向量x1与x2的cos相似度为0,x1与x3的cos相似度为0(正交),但是我们从几何角度上看,其实x1是与x3更相似的,所以导致计算相似度结果也会有问题。
同时,目前已近有发现BERT的向量空间是各向异性的,且词嵌入呈现锥形分布,作者也做了一些论证,为了验证BERT词向量分布是否和词频有关,通过计算不同词频的 l 2 \mathcal{l}_2 l2范数、词向量之间的欧式距离,如下表所示。
因为词向量空间和句向量空间共享的是同一个高维空间,如果词向量空间有什么问题,那句向量空间也会有同样的问题。
词频会给词向量引入偏差:从表中可以看出,无论是 l 2 \mathcal{l}_2 l2范数还是词向量之间的欧式距离,不同词频之间分布都不一致。对于 l 2 \mathcal{l}_2 l2范数,明显高频词语离原点更近,这会导致同意词语由于词频不同带来的语义空间的偏差,不能使用词向量距离来表示其相似性,推理到句向量也同理。
低频词语更稀疏:同时高频词语的词向量之间的欧式距离更小,说明高频词语更加稠密,低频词语更加稀疏,稀疏会导致语义空间的某些地带空白(holes),没有语义表示,因为bert句向量是词向量的平均池化,是一种保凸性运算,然而这些没有语义定义的空间使得分布不是凸性的,所以可以认为BERT句向量上是语义不平滑的(semantically non-smoothing),这导致句向量相似度不一定准确表示句子的语义相似度。
为了解决bert语义不平滑问题,作者通过Normalizing Flows来讲bert句向量分布转换到高斯分布,因为它是一个光滑的、各向同性的分布空间。
为什么要转换为高斯分布呢,标准高斯分布是各向同性的,同时标准高斯分布是凸的,或者说是没有"holes",因此语义分布更为光滑。
A flow-based generative model会将潜在空间 Z \mathcal{Z} Z到观测空间 U \mathcal{U} U的可逆变换 ,生成过程为:
z ∼ p Z ( z ) , u = f ϕ ( z ) \mathbf{z} \sim p_{\mathcal{Z}}(\mathbf{z}), \mathbf{u}=f_{\phi}(\mathbf{z}) z∼pZ(z),u=fϕ(z) 其中$ p_{\mathcal{Z}} 是 标 准 的 高 斯 分 布 , 是标准的高斯分布, 是标准的高斯分布,\mathcal{U}$是bert的分布,通过将一个标准的高斯分布生成一个bert的句子embedding分布,通过下面公式来最大化似然: m a x ϕ E u = B E R T ( s e n t e n c e ) , s e n t e n c t D l o g p Z ( f ϕ − 1 ( u ) ) + l o g ∣ d e t ∂ f − 1 ( u ) ∂ u ∣ max_{\phi} E_u = BERT(sentence),sentenct \ D \\ log p_{\mathcal Z(f^{-1}_{\phi}(u))} + log |det \frac{\partial f^{-1}(u)}{\partial u}| maxϕEu=BERT(sentence),sentenct DlogpZ(fϕ−1(u))+log∣det∂u∂f−1(u)∣ 其中D是数据集,即很多句子,训练的时候,bert的参数不变,通过学习可逆变化 f ϕ − 1 f^{-1}_\phi fϕ−1,将bert 的句子embedding转换为一个高斯的输出分布z。而这个可逆变换 f ϕ − 1 f^{-1}_\phi fϕ−1可以通过一个神经网络来模拟,结构设计时候通常需要考虑变换的可逆性,同时 l o g ∣ d e t ∂ f − 1 ( u ) ∂ u ∣ log |det \frac{\partial f^{-1}(u)}{\partial u}| log∣det∂u∂f−1(u)∣也需要容易计算,保证训练能够进行,本文使用了。
上面的实验中,都没有使用NLI的监督标签,而target表示使用了NLI的语料来训练flow,但是并没有使用其监督的标签。
可能是用的一个相关的语料,使用bert获取其原始embedding,然后将可逆变换映射到一个高斯分布上。
其中bret-flow模型默认使用了最后两层的avg pooling(last2avg).
下面的实验中,使用了NLI的有监督标签进行训练,但是flow的训练仍然是无监督的。可以看到,flow多数数据集上仍然是表现最好的。
作者通过将此方法应用的问题和答案对匹配上,即去计算问题和答案的embeeding的cosin相似度来预估它们是否相关,在QNLI数据集上证明也是有明显提升。
SN(Standard Normalization): 后处理,计算均值和方差,然后 u − μ σ \frac{u-\mu}{\sigma} σu−μ通过来做归一。
Nulling Away Top-k Singular Vectors (NATSV): nulling away the top-k singular vectors,
对比也证明,flow是这些校准算法中最好的。
也有大佬试验过flow是否必要:
研究句子相似度是否和编辑距离是否有强关系,相比于真实标签,bert与编辑距离的关系很高。就上图中,当句子对的编辑距离小于4的时候,bert的语义相似度很高,但是真实标签却不是这样,例如句子“我喜欢这家饭店”和“我不喜欢这家饭店”,虽然编辑距离很小,但是确是相反的句子,而bert会倾向于认为他们相似。
本文对bert的向量表达做了细致的分析,从提出质疑、验证问题、方法探索对问题进行了解决,提出的方法是一方面,发现问题也很重要,当然,也有大佬试验过flow是否必要:
论文:
代码:
https://kexue.fm/archives/8069
转载地址:http://pxaji.baihongyu.com/