融合交叉自注意力和预训练模型的文本语义相似性评估方法 |
| |
引用本文: | 李正光,陈恒,李远刚.融合交叉自注意力和预训练模型的文本语义相似性评估方法[J].数学的实践与认识,2022(7):165-175. |
| |
作者姓名: | 李正光 陈恒 李远刚 |
| |
作者单位: | 1. 大连外国语大学语言智能研究中心;2. 大连外国语大学一带一路城市与区域发展研究院;3. 上海商学院商务信息学院 |
| |
基金项目: | 2020年辽宁省教育科学“十三五”规划项目(JG20DB120); |
| |
摘 要: | 评估两个句子的语义相似性是文本检索和文本摘要等自然语言处理任务的重要组成部分.学者利用深度神经网络执行该任务,然而它们依赖于上下文独立词向量,从而导致性能不佳.为了缓解该问题,采用预训练模型BERT替换传统的词向量,并提出交叉自注意力以增强两个句子的语义,然后与BERT结合.在提出的模型中,为了实现交叉自注意力操作,设计了向量的对齐方法.最后,将BERT输出输入一个双向循环神经网络,以稳定性能,克服BERT自身带来的波动性.实验中,采用3个公开数据集DBMI2019、CDD-ref和CDD-ful对提出的混合模型进行评价.实验结果表明,由于使用了BERT生成的语境词向量,提出模型的性能始终优于现存方法;交叉自注意力实现了彼此的语义交互而增强了句对的语义,使得相似句对的语义差异更小,而不相似句对的语义差异更大,提高了相似性评估的性能.最终,提出模型在DBMI2019、CDD-ref和CDD-ful上分别取得了0.846,0.849和0.845的皮尔逊相关系数,超越了直接以CLS]输出向量作为评估的方法.
|
关 键 词: | 语义相似性 交叉自注意力 预训练模型 语义交互 |
|
|