LEA: Improving Sentence Similarity Robustness to Typos Using Lexical Attention Bias 论文阅读

KDD 2023 原文地址

Introduction

文本噪声,如笔误(Typos), 拼写错误(Misspelling)和缩写(abbreviations), 会影响基于 Transformer 的模型. 主要表现在两个方面:

  1. Transformer 的架构中不使用字符信息.
  2. 由噪声引起的词元分布偏移使得相同概念的词元更加难以关联.

先前解决噪声问题的工作主要依赖于数据增强策略, 主要通过在训练集中加入类似的 typos 和 misspelling 进行训练.
数据增强确实使得模型在损坏(噪声)样本上表现出出更高的鲁棒性.
虽然这种策略在一定程度上已被证明有效地缓解了词元分布偏移的问题, 但所有这些方法仍然受到在 词元化(tokenization)中字符信息会丢失的限制.

Approach

1
在自注意机制中加入词感知注意模块(Lexical-aware Attention module, LEA). LEA 考虑了句子间的词的字符关系, 文中认为这是提高句子相似性任务的关键, 特别是在存在 typos 的情况下.

Self-attention

定义 self-attention 的输入为 (X=set{x_1, x_2, dots, x_n}), 输出为 (Z=set{z_1, z_2, dots, z_n}), 输出中的每个 token 的表示计算如下:

[begin{equation} z_i=sum_{j=i}^na_{ij}left(x_jcdot W^Vright), quad z_iin mathbb R^{d_h}. end{equation} ]

其中的注意力权重 (a_{ij}) 计算如下:

[begin{equation} a_{ij}=frac{text{exp}(e_{ij})}{sum_{k=1}^{n}text{exp}(e_{ik})}, end{equation} ]

其中

[begin{equation} e_{ij}=frac{(x_iW^Q)(x_jW^K)}{sqrt{d_h}}. end{equation} ]

Lexical attention bias

对于语义文本相似性(textual similarity), 将两个句子拼接:

[begin{equation} X_c=X_l|X_r end{equation} ]

主要做法是参考了相对位置嵌入(relative position embeddings)的做法, 对 self-attention 中的 (e_{ij}) 进行如下修改:

[begin{equation} tilde e_{ij}=e_{ij}+alpha l_{ij} W^L, end{equation} ]

其中第二项就是词偏向(lexical bias). (W^Lin mathbb R^{d^Ltimes 1}) 是可训练参数, (lin mathbb R^{1times d^L}) 是成对词汇注意嵌入(pairwise lexical attention embedding), (alpha) 是一个固定的比例因子, 它在训练开始时根据两个项的大小自动计算一次.

为了计算成对词汇注意嵌入(pairwise lexical attention embedding), 先计算句子对之间单词的相似度, 而句子内单词的相似度设定为0:

[begin{equation} s_{ij}= left{ begin{aligned} &0 &&,text{ if }x_i,x_jin X_ltext{ or }x_i,x_jin X_r\ &text{Sim}big(w(x_i), w(x_j)big) &&text{, otherwise.} end{aligned} right. end{equation} ]

其中 Sim 是一个度量, 用于表示两个单词之间的字符串相似度.

之后通过将将 (s_{ij}) 带入 Transformer 中的正余弦函数, 得到表示词相似度的 embedding:

[begin{equation} begin{aligned} l_{ij}^{(s_{ij}, 2p)}&=&&sin{left(frac{2picdot d_{ij}}{beta^{2p/d_h}} right)},\ l_{ij}^{(s_{ij}, 2p+1)}&=&&cos{left(frac{2picdot d_{ij}}{beta^{2p/d_h}} right)}, end{aligned} end{equation} ]

最终的词相似度嵌入 (l_{ij}) 是上了两个向量的拼接.

Implementation details

论文中相似度度量选取的是 Jaccard 系数.
只在架构的后半层添加了 lexical attention bias.

Experiment

Performance

Impact of the lexical similarity choice

分析了使用不同相似度度量在 Abt-Buy 这个数据集上, BERT-Medium 的表现.
相似度度量包括: Jaccard (Jac.), Smith-Waterman (Smith), Longest Common Subsequence (LCS), Levenshtein (Lev.) and Jaro–Winkler (Jaro)

Jaccard 相似度系数是顺序不可知的, 因此对字符交换更健壮.
Jaccard 在有错别字和没有错别字的单词对之间提供了更高的可分离性, 这在短文本中是有益的.
然而, 随着句子长度的增加, 被比较的单词具有相似字符但含义不同的概率增加, 这降低了交换不变性优势.

Jaccard 相似系数: 集合 A, B 的交集与并集的比值

LEA on different layers and sharing strategy

文中认为, LEA 提供的字符级相似性可以被视为一种高级交互信息.
因此, 它为深层 Transformer 层补充了高层次的特性.
文中并没有验证这一假设.

Impact of the noise strength

直观地说, 由于 LEA 利用的字符级相似性不是在训练过程中学习到的, 因此它们为模型提供的信息在某种程度上较少依赖于噪声的量.

图3(下)显示了随着 typos 数量的增加, LEA 的性能与普通数据增强模型之间的差距越来越大, 这表明 LEA 可以更好地泛化到不同的噪声强度.

Additional experiments

Larger model

1.BERT-Large

2.GPT-like models

Larger dataset

BERT-M + DA 在 WDC-Comp.XL 性能超过了 LEA, 但是标准差较大.

内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/jjvv/p/17547762.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!