• 工作总结
  • 工作计划
  • 心得体会
  • 领导讲话
  • 发言稿
  • 演讲稿
  • 述职报告
  • 入党申请
  • 党建材料
  • 党课下载
  • 脱贫攻坚
  • 对照材料
  • 主题教育
  • 事迹材料
  • 谈话记录
  • 扫黑除恶
  • 实施方案
  • 自查整改
  • 调查报告
  • 公文范文
  • 思想汇报
  • 当前位置: 雅意学习网 > 文档大全 > 公文范文 > 正文

    基于池化和特征组合增强BERT的答案选择模型

    时间:2023-06-24 12:15:04 来源:雅意学习网 本文已影响 雅意学习网手机站

    胡 婕,陈晓茜,张 龑,2

    (1.湖北大学 计算机与信息工程学院,武汉 430062;
    2.湖北省教育信息化工程技术研究中心(湖北大学),武汉 430062)

    答案选择[1-2]是从候选答案池中找到与问题最相符的答案。它是一种句子匹配任务[3],即判断两个句子之间的相似度,是问答(Question Answering,QA)系统中非常重要的子任务。

    随着深度学习的发展,许多深度学习技术被应用到答案选择任务上。预训练模型出现之前,用得比较多的是双向长短期记忆(Bi-directional Long Short-Term Memory,BiLSTM)网络。如Neculoiu 等[4]提出的Siamese-BiLSTM 模型结 合BiLSTM 与Siamese 体系结构来提取问答对的语义特征,然后采用余弦函数计算问答对的相似度;
    但是单一的BiLSTM 网络难以捕捉问题和答案的语义信息以及字符序列上下文关系方面的特征。由于隐含狄利克雷分布(Latent Dirichlet Allocation,LDA)主题模型[5]可以为文本匹配提供主题信息,文献[6-7]中将LDA 主题模型应用到文本匹配任务中,帮助理解句子对的语义信息。在结合主题模型的应用上有不同的策略,Wu 等[7]提出了ECNU(traditional method of Extracting features and Convolutional Neural Network)模型,它使用包括基于主题模型的特征在内的多种类型的特征与卷积神经网络(Convolutional Neural Network,CNN)结合表示问答对的语义。相较于Siamese-BiLSTM 模型和LDA 主题模型,它进一步增强了句子对的语义表示,但没有充分考虑问题和答案之间的交互,容易丢失重要的信息。为了更好地实现问题和答案之间的信息交互,注意力机制被引入到答案选择任务中,Wen等[8]提出了UIA-LSTM-CNN(User Interaction Attention-Long Short Term Memory-Convolutional Neural Network)模型。该模型利用CNN 和LSTM 混合模式的注意力机制学习问题和答案的语义信息,并将用户信息作为答案选择任务的额外特征。上述模型挖掘了问题和答案中的隐含信息,但是由于引入的用户信息存在噪声问题,Xie 等[9]提出了AUANN(Attentive User-engaged Adversarial Neural Network)模型,进一步改进引入用户信息的模型,利用对抗训练模块过滤与问题不相关的用户信息。上述模型大多使用word2vec[10]或者GloVe(Global Vectors)[11]词嵌入方法进行词向量表示,表示方法都是静态固定的,无法表示上下文语义信息。

    Google 公司发布的预训练模型BERT(Bidirectional Encoder Representations from Transformers)[12]改变了自然语言处理(Natural Language Processing,NLP)任务中的模型架构范式,在自然语言处理领域很多任务都取得较好的效果。Laskar 等[13]将预训练模型BERT 应用到答案选择任务上,使用预训练模型BERT 中的[CLS]表示问题和答案的语义,然后通过softmax 层计算问题和答案的相似度。与CNN 和BiLSTM 相比,预训练模型BERT 可以通过深层模型获取问题和答案丰富的语义信息;
    但是,使用BERT 学习到的语义特征不够丰富,容易造成文本匹配的语义缺失。近年来,由于图神经网络可以保存全局信息,Chen 等[14]提出了GMNBERT(Graph Matching Networks-Bidirectional Encoder Representations from Transformers)模型。该模型使用BERT获得每个词的上下文表示,将对应的词嵌入转换为节点嵌入,并利用图匹配模块来计算两个文本的图级表示的相似性。尽管基于图神经网络的方法能够捕捉句子的全局信息,但该方法各节点信息没有充分交互。为了有效提取句子对的语义信息,Peinelt 等[15]提出了tBERT(topic models with Bidirectional Encoder Representations from Transformers)模型,该模型使用预训练模型BERT 提取句子对的语义信息,同时利用LDA 主题模型辅助表示句子对的语义,取得不错的效果。然而,该模型仍然存在如下问题:首先,tBERT 模型使用BERT 输出的[CLS]来表示句子对语义,不能完整地提取问答对的语义信息。对BERT 的输出向量取平均作为问答对的语义信息效果更好[16]。其次,tBERT 模型将两个句子的主题信息和它们的语义表示简单地拼接在一起,无法挖掘问答对主题信息的联系,影响模型整体的表达能力。通过对提取的两个句子特征进行特征组合,能更有效地识别句子间的相关性[17]。最后,隐藏层中的tanh 激活函数存在软饱和与梯度消失问题,影响模型的性能。

    针对上述模型存在的问题,本文在tBERT 模型的基础上进行改进。首先利用BERT 模型对语料进行微调,为了提升模型的鲁棒性,在嵌入层增加了对抗训练;
    然后对BERT 的输出向量和对抗样本取平均作为问答对的语义信息;
    同时使用LDA 主题模型提取问题和答案的主题信息辅助模型理解问答对的语义;
    其次,使用点积操作、按位减操作对问题和答案的主题特征进行组合,提升问题和答案主题信息间的联系;
    接着,拼接问答对的语义信息与组合后的主题信息,由隐藏层和softmax 层做最终处理;
    最后,结合tanh 和ReLU(Rectified Linear Unit)激活函数的优点,设计了一种新的激活函数,提升了模型的性能。实验结果表明,本文模型在SemEval-2016CQA[18]和SemEval-2017CQA[19]数据集上的F1值达到了76.1%和79.9%,相较于基线模型都有所提升,从而验证了本文采用对BERT 的输出加入对抗训练并取平均作为问答对的语义表示、对问答对的主题特征进行组合以及改进激活函数方法的有效性。

    本文模型结构如图1 所示。编码层对预处理完成后的问题和答案进行编码并加入对抗训练;
    池化层对编码层的问题和答案编码以及对抗样本进行语义提取;
    主题信息提取层对输入问答对的主题信息进行提取;
    特征组合层通过点积操作、按位减操作进一步关联问答对的主题信息,然后将组合后的主题信息与问答对的语义信息进行拼接;
    最后将拼接后的结果经过隐藏层和softmax层计算得到问题和答案的相似度。

    图1 本文模型结构Fig.1 Structure of proposed model

    本文模型通过在tBERT 模型基础上新增对抗训练、池化层、特征组合层以及改进激活函数,使问答对的语义具有更加丰富的表示,有效完成答案选择任务。

    1.1 编码层

    编码层使用预训练模型BERT 对问题和答案进行编码,预训练模型BERT 采用多层双向Transformer 的Encoder 结构,解决了传统语言模型单向的局限性以及长期依赖的问题。本文使用的BERT-base 模型,包含12 个编码块。BERT语言模型有两个任务:第一个任务是在句子中随机遮挡一部分单词,模型利用上下文信息来预测这些被遮挡的单词;
    第二个任务是预测下一个句子。BERT 预训练阶段结合这两个任务同时进行,BERT 模型结构如图2 所示。

    图2 BERT模型结构Fig.2 Structure of BERT model

    为了应对下游任务,BERT给出了句子级别的表示。如果BERT 的输入是两个句子,需要在句子的头部添加标识符[CLS],两个句子之间以及句子末尾使用分隔符号[SEP]。句子中的每个单词由字嵌入向量、分段嵌入向量和位置编码向量三部分组成,其中字嵌入向量的起始单词嵌入为E[CLS],分隔符为E[SEP],最后一个单词嵌入为E[SEP]。分段嵌入向量是用来区分两个输入句子,对这两个句子中的单词分配不同的编码(例如:A句子用0编码,B句子用1编码)。位置编码向量表示单词在句中的位置不同可能会导致完全不同的语义。将问题和答案用整合后的向量表示,作为BERT 的输入,通过堆叠12个Transformer编码块,得到输出向量,表示为:

    其中:C、F1、Fn、Fm"分别为问题和答案中的每个单词经过BERT 后的向量表示。

    对抗训练通过在原始输入上增加对抗扰动来提高模型的鲁棒性。受文献[9]的启发,本文在经过预训练模型BERT处理后获得的初始向量表示后,添加扰动进行对抗训练。将通过预训练模型BERT 后的输出向量{C,F1…Fn…Fm"}定义为F,对抗样本Fadv的计算公式为:

    其中:ε是扰动ηadv的无限范数最大值,g表示梯度,θ是模型参数,ηadv是添加的扰动,∇F表示输入F求导得到的梯度。对抗训练在一个步骤中做了两次梯度更新:第一次做梯度上升是为了找到最佳扰动ηadv,使得损失最大;
    第二次做梯度下降是为了找到最佳模型参数,使得损失最小。

    生成对抗样本之后,原始向量表示和对抗样本一同输入到池化层。

    1.2 池化层

    经过预训练模型BERT 后,得到问题和答案的句子表示。先前的工作一般使用BERT 中的[CLS]作为问答对的语义表示,[CLS]虽然可以代表整个句子的语义,但是没有考虑到每个token 的信息,可能造成语义信息的丢失。考虑到这些问题以及池化层可以去除冗余信息,压缩信息的特征。为了进一步挖掘问题和答案的语义信息,本文对BERT 的输出以及对抗样本取平均作为问答对的语义表示。池化通常分为平均池化和最大池化两种:最大池化不能将整个句子的语义信息保留下来,因此本文使用平均池化提取问答对的语义信息;
    平均池化方法沿着文本长度和嵌入维度求均值,实现隐藏序列到向量的转换。问答对的语义表示C1表示为:

    1.3 主题信息提取层

    为了增强问题和答案的语义特征,该层使用LDA 主题模型[5]提取问答对的主题信息。LDA 主题模型是一个三层贝叶斯概率模型,该模型认为一篇文档有多个主题,每个主题对应不同的词。在LDA 模型中,假设n篇文档中含有K个主题,w表示每篇文档对应的单词,z表示每篇文档中单词对应的主题,θ表示每篇文档的主题概率,服从先验参数α的狄利克雷分布,Φ表示每个主题对应词的概率,服从先验参数β的狄利克雷分布,模型结构如图3 所示。

    图3 LDA模型结构Fig.3 Structure of LDA model

    LDA 提取主题词的过程为:首先,对于给定的文档生成一个隐狄利克雷分布模型,得到θ作为主题-文档分布;
    然后,对于每个主题,根据先验参数β的狄利克雷分布得到主题词的分布Φ;
    最后,根据主题词分布和主题文档分布得到z和w。本文采用当前LDA 模型中主流的采样方法——吉布斯采样算法求解得到全局主题z的分布和词语的分布,需要确定3 个超参数α、β和最优主题数K,其中α和β使用默认值,K通过困惑度计算确定。计算公式为:

    其中:D为语料库中的训练集,共M个问答对,di为句子i中的词,p(di)为句子中词di产生的概率,Ni为每个句子中的单词数。

    通过LDA 主题模型,可以判断问答对的主题信息分布是否一致。首先将问题和答案输入到主题模型,计算每个词的主题分布,计算公式为:

    其中:i表示问答对中单词的序号,Ti表示每个问题和答案中对应的单词。然后,分别对问题和答案所有词的主题分布取平均获得问题和答案的主题信息表示W1和W2,如下式:

    其中:n表示每个问题中的单词个数,m表示每个答案中的单词个数,wi表示每个问题中对应单词的主题信息,wi表示每个答案中对应单词的主题信息。

    1.4 特征组合层

    仅使用LDA 主题模型提取问题和答案主题特征,容易忽略上下文词汇间的语义关联,需要进一步组合这些特征加强问题和答案的主题信息之间的逻辑关系。特征组合层对问题和答案的主题信息实现组合并捕捉它们的主题信息,从而使得问题的主题特征向量包括答案的主题特征,这样可以过滤掉与问题主题不相关的答案。例如,问题的主题是“去哪里吃饭”,相对应的答案的主题是“在饭店吃炒鸡”,通过特征组合层可以加强两个主题的联系,把注意力重点放在主题上,判断这两个主题是否有关联。

    文献[15]使用拼接、按位乘和按位减操作提取两个句子的特征。该方法能够有效识别句子间的相关性,但是对于问答对主题特征而言,拼接和按位乘操作不能有效建立特征之间的联系,而点积操作可以使它们进行更充分的组合。为了更好地捕捉问答对主题特征间的联系,本文使用点积和按位减操作对问答对的主题特征W1、W2进行组合。

    通过使用点积和按位减两种操作,得到两种不同的特征W1·W2和W1-W2。将这两种特征与问答对的语义特征进行拼接得到最终的组合特征F",如式(10)所示:

    其中:“;
    ”表示拼接,“·”表示点积操作,“-”表示按位减操作,C1为问答对的语义表示,W1和W2分别为问题和答案的主题信息表示。

    1.5 输出层

    得到组合特征向量F后,应用隐藏层和softmax 层得到模型的输出,最终得到问答对相似度概率y",如式(11)所示:

    在隐藏层中,tBERT 模型使用tanh 激活函数。激活函数的作用是把激活神经元的特征通过非线性函数把特征保留并映射出来,也决定了信号网络中能否传递。因此,激活函数影响整个网络的性能。由于tanh 函数的取值范围在[-1,1]区间内,存在软饱和性以及梯度消失的问题,近年来,深度学习网络中经常使用ReLU 函数,相较于tanh 函数具有较快的收敛性,但是没有负值激活会导致权重无法更新,存在神经元死亡的现象。为了克服tanh 函数和ReLU 函数的缺点,本文提出一种新的激活函数,定义如下:

    该激活函数的正半轴使用ReLU 的正半轴,负半轴使用的函数在tanh 基础上增大了中心区域的梯度,降低了饱和的速度。

    相较于使用tanh 作为隐藏层的激活函数,本文提出的激活函数有以下优点:

    1)正半轴使用ReLU 激活函数,缓解了梯度消失的问题。由于在正半轴,函数的导数值恒为1,这样保证了正半轴梯度不衰减。

    2)激活负值,在tanh 函数的基础上增大中心区域的梯度,缓解了快速饱和的问题。

    3)降低噪声,该函数在负半轴具有软饱和性,意味着可以减小输出到下一层信息的变化。因此,它表现出来的特征可以降低噪声。

    1.6 模型训练

    在本文中,通过捕捉问答对之间的语义信息来计算它们的相似度。本文应用交叉熵损失函数来衡量答案标签的真实概率分布和预测概率分布之间的差值:

    其中:M为问答对的训练数量,y为样本真实值,为样本预测值。

    为了防止过拟合,本文采用早期停止法训练模型[13]:为了降低梯度,当测试误差停止降低并开始增大时,就停止训练。模型训练是为了在训练过程中不断地更新参数,尽可能地减小模型的总损失。

    2.1 数据集与评价指标

    2.1.1 数据集

    为了验证本文模型的有效性,在两个被广泛使用的社区问答公开数据集SemEval-2016CQA 和SemEval-2017CQA 上做对比实验。它们的验证集相同,训练集和测试集不同。这两个数据集是由卡塔尔生活论坛创建的,每个评论上都被贴上“好”“坏”或者“可能有用”的标签。本文将“好”作为正样本,其他标签作为负样本。为了验证激活函数改进的可行性,在一个公开数据集MSRP 上做对比实验。该数据集是用于释义识别的数据集,两个句子是否互为释义,是微软研究释义构建的语料库。详细信息如表1 所示。

    表1 数据集描述Tab.1 Description of datasets

    2.1.2 评估标准

    在实验中,不同的评价指标能够从不同的角度反映模型的性能。本文采用准确率(Accuracy,Acc)和F1 值(F1)作为评价指标,这两种评价指标越高,代表模型的准确率和综合性能越好。准确率是模型正确预测答案的样本数占总样本数的比例。F1 值是精确率和召回率的调和平均数,精确率(Precision,P)表示的是正确预测标准答案占实际预测为标准答案的比例,而召回率(Recall,R)则表示预测标准答案占标准答案的比例。评价指标的计算公式如下:

    其中:TP(True Positive)是预测该答案是正例且判定正确的次数,TN(True Negative)是预测该答案为负例且判定正确的次数,FP(False Positive)是预测该答案为正例但判断错误的次数,FN(False Negative)是预测该答案为负例但判断错误的次数。

    2.2 实验设置

    本文实验在Python3.6,Tensorflow1.1,GTX5000 平台上运行。本文模型使用BERT-base 构建,层数L=12,自注意力头数A=12。其他超参数的设置如表2 所示。

    表2 参数设置Tab.2 Parameter setting

    2.3 对比模型

    实验对比的基线模型分为三类:第一类是传统的文本匹配方法LDA 主题模型;
    第二类是基于CNN 和LSTM 的方法,分别是ECNU、Siamese-BiLSTM、UIA-LSTM-CNN 以及AUANN模型;
    第三类是基于预训练模型BERT 的方法,分别是BERT、GMN-BERT、BERT-pooling 以及tBERT 模型。这些模型的特点如下。

    1)LDA 主题模型[5]:一般用于获取文档的主题信息,是传统且简单的算法。在每个数据集的训练部分建立一个主题模型,并计算两个句子主题分布之间的JS 散度(Jensen-Shannon Divergence,JSD)。如果JSD 大于阈值,该模型预测为负标签,否则预测为正标签。

    2)ECNU[7]:该模型采用GloVe 方法获取静态词向量,结合传统特征的监督模型和CNN 表示问答对特征,最后拼接两个特征向量并使用softmax 函数计算问题和答案的得分。

    3)Siamese-BiLSTM[4]:该模型是孪生神经网络,左右两边的每一层网络权重共享,使用BiLSTM 网络对问题和答案进行编码,然后用余弦函数计算两个编码向量之间的相似度。

    4)UIA-LSTM-CNN[8]:该模型采用GloVe 方法获取静态词向量,使用CNN 和LSTM 混合模式注意力机制,计算问题和答案句子中单词的注意力权重以及对应句子中每个单词对一个句子中单词的注意力,结合这两种注意力机制能够使问答对中的大部分信息进行句子匹配。此外,利用学习到对问答有用的用户信息完成答案选择任务。

    5)AUANN[9]:该模型与UIA-LSTM-CNN 方法相似,利用用户信息学习问答对的上下文信息。不同的是,为了解决引入用户信息而产生的噪声问题,设计一个去噪机制,采用粗粒度和细粒度的选择过程,通过计算答案和用户信息的相似性以及对抗训练两个方法过滤掉与问答不相关的用户信息。

    6)BERT[13]:该模型仅使用BERT 中的[CLS]表示问题和答案的语义,然后通过全连接层和分类器来完成答案选择任务。

    7)GMN-BERT[14]:该模型使用预训练模型BERT 获得每个单词的上下文表示,然后将上下文节点作为图节点的初始表示,通过消息传播和更新表示两个步骤,使得每个节点既包含可到达节点的信息又包含了与另一个图中所有节点成对比较的信息。最后使用两个图级表示预测句子对的相似性。

    8)BERT-Pooling:该模型在预训练模型BERT 的输出层仅使用池化操作表示问答对的语义。

    9)tBERT[15]:该模型分别用LDA 和GSDMM(Gibbs Sampling algorithm for the Dirichlet Multinomial Mixture model)主题模型与BERT 结合完成语义相似度检测任务,其中LDA主题模型适合长文本,GSDMM 主题模型适合短文本。由于本文使用的数据集是长文本,故与LDA 主题模型结合BERT的tBERT 模型对比。该方法仅使用BERT 中的[CLS]表示问答对的语义,简单地与问答对的主题信息进行拼接。

    2.4 实验分析

    首先在tBERT 模型中加入对抗训练(Adversarial Training,AT)并引入池化操作,然后引入主题信息特征组合并改进激活函数。为了验证模型改进思路的可行性,分别对tBERT 模型及其改进模型进行实验对比。

    首先验证在tBERT 模型中加入对抗训练并引入池化操作改变问答对语义特征提取方式的可行性。问答对语义信息的提取非常重要,本文考虑到每个token 的信息以及模型的鲁棒性,先对BERT 的输出加入扰动生成对抗样本,然后对原始向量和对抗样本取平均作为问答对的语义表示。在tBERT 模型中分别加入对抗训练和引入池化操作并将两者叠加的结果如表3 所示。

    表3 tBERT、tBERT-AT、tBERT-pooling和tBERT-AT-pooling模型的准确率和F1值的对比 单位:%Tab.3 Comparison of accuracy and F1 scores of tBERT,tBERT-AT,tBERT-pooling,and tBERT-AT-pooling models unit:%

    由表3 可知,仅加入对抗训练,提高了模型的鲁棒性。对tBERT 和tBERT-pooling 分别引入对抗训练后,改进后的模型的准确率和F1 值在SemEval-2016CQA 数据集下相较于原模型分别提高了1 和0.8 个百分点,0.8 和0.9 个百分点;
    在SemEval-2017CQA 数据集上分别提高了0.9 和1.1 个百分点,1 和0.9 个百分点。仅引入池化操作改变问答对语义特征的提取方式,改进后模型的准确率和F1 值在SemEval-2016CQA 数据集上相较于tBERT、tBERT-AT 模型分别提高了0.4 和0.3 个百分点,0.2 和0.4 个百分点;
    在SemEval-2017CQA 数据集上分别提高了0.3 和0.4 个百分点,0.2 和0.2 个百分点。加入对抗训练并引入池化操作后模型的准确率和F1 值在SemEval-2016CQA 数据集上相较于tBERT 模型分别提高了1.2 和1.2 个百分点,在SemEval-2017CQA 数据集上分别提高了1.3 和1.3 个百分点。验证了在tBERT 模型上加入对抗训练并引入池化操作是可行的,而且两者的叠加具有更好的效果。

    然后验证引入主题信息特征组合的可行性。为了让模型更好地识别问答对主题信息的相关性,提升模型的整体预测能力,本文对问答对的主题信息进行按位减、点积操作从而得到主题信息特征组合。分别对比没有进行特征组合的模型,结果如表4 所示。

    表4 tBERT、tBERT-AT、tBERT-pooling以及tBERT-AT-pooling模型引入主题信息特征组合前后的准确率和F1值的对比 单位:%Tab.4 Comparison of accuracy and F1 scores of tBERT,tBERT-AT,tBERT-pooling and tBERT-AT-pooling models before and after introducing combination of topic information features unit:%

    由表4 可知,对tBERT、tBERT-AT、tBERT-pooling 以及tBERT-AT-pooling 模型分别引入主题信息特征组合后,改进后模型的准确率和F1 值在SemEval-2016CQA 数据集下相较于各自原模型分别提高了0.3 和0.2 个百分点,0.3 和0.2 个百分点,0.4 和0.3 个百分点,0.4 和0.3 个百分点;
    在SemEval-2017CQA 数据集下相较于各自原模型分别提高了0.2 和0.2 个百分点,0.1 和0.2 个百分点,0.2 和0.3 个百分点,0.3 和0.5 个百分点,验证了只引入主题信息特征组合对提升模型的性能是有效的。此外,tBERT-AT-pooling-特征组合模型相较于tBERT 模型,准确率和F1 值在SemEval-2016CQA 数据集下分别提高了1.6 和1.5 个百分点,在SemEval-2017CQA 数据集下分别提高了1.6 和1.8 个百分点,验证了同时加入对抗训练并引入池化操作和主题信息特征组合对提升模型的性能有更好的效果。

    最后验证改进激活函数的可行性。由于tanh 激活函数存在软饱和性和梯度消失的问题,影响模型的性能。本文在tanh 和ReLU 激活函数的基础上对隐藏层中的激活函数进行改进,分别对基线模型tBERT 和改进后的tBERT-pooling-特征组合、tBERT-AT-特征组合、tBERT-AT-pooling-特征组合模型使用不同的激活函数,其准确率和F1 值的对比如表5所示。

    由表5 可知,对tBERT、tBERT-AT-特征组合、tBERTpooling-特征组合以及tBERT-AT-pooling-特征组合模型分别改进激活函数后,改进后模型的准确率和F1 值在SemEval-2016CQA 数据集下相较于各自原模型分别提高了0.9 和0.2个百分点,0.2 和0.2 个百分点,0.9 和0.9 个百分点,1.5 和0.5 个百分点;
    在SemEval-2017CQA 数据集下相较于各自原模型分别提高了0.7 和0.5 个百分点,0.2 和0.3 个百分点,0.3 和0.7 个百分点,0.6 和1.3 个百分点,验证了改进激活函数对提升模型的性能是有效的。可以看出,仅改进tBERT模型中的激活函数在SemEval-2016CQA 数据集上的准确率和F1 值提升的效果差别较大,主要原因是该数据集的噪声多,只改进激活函数对模型的整体性能的提升效果不明显;
    并且对tBERT、tBERT-AT-特征组合、tBERT-pooling-特征组合、tBERT-AT-pooling-特征组合模型分别改进激活函数后,在两个数据集的准确率和F1 值的提升效果有明显的差别,这是因为SemEval-2016CQA 数据集中的答案包含较多的复杂背景信息,引入特征组合以及改进激活函数后,能够过滤更多的噪声词。引入对抗训练之后,本文模型在两个数据集上的准确率和F1 值有所提升,进一步证明对抗训练可以提升模型的鲁棒性。此外,本文模型即tBERT-AT-pooling-特征组合-改进的激活函数模型相较于tBERT 模型,准确率和F1值在SemEval-2016CQA 数据集下分别提高了3.1 和2 个百分点,在SemEval-2017CQA 数据集下分别提高了2.2 和3.1 个百分点,验证了同时加入对抗训练并引入池化操作和主题信息特征组合以及对激活函数进行改进对提升模型的性能有更好的效果,而且几个方面的改进具有明显的叠加效果。

    表5 tBERT、tBERT-AT-特征组合、tBERT-pooling-特征组合以及tBERT-AT-pooling-特征组合模型改进激活函数前后的准确率和F1值的对比 单位:%Tab.5 Comparison of accuracy and F1 scores of tBERT,tBERT-AT-feature combination,tBERT-pooling-feature combination and tBERT-AT-pooling-feature combination models before and after improving activation function unit:%

    为了进一步验证改进激活函数在其他任务上的有效性,在MSRP 数据集上对比基线模型tBERT 以及tBERT-改进后的激活函数,其准确率和F1 值如表6 所示。

    表6 tBERT改进激活函数前后在MSRP数据集上的准确率和F1值的对比 单位:%Tab.6 Comparison of accuracy and F1 scores of tBERT,tBERT before and after improving activation function on MSRP dataset unit:%

    由表6 可知,对tBERT 模型中的激活函数进行改进,改进后模型在MSRP 数据集上的准确率和F1 值相较于原模型分别提升了0.3 和0.2 个百分点。相较于Semeval-2016CQA和Semeval-2017CQA 数据集,改进tBERT 模型中的激活函数在MSRP 数据集的准确率和F1 值的提升效果有所差别,主要原因是激活函数与数据集的特征有关;
    但在两个不同任务上性能均有提高,表明改进激活函数是有效的。

    综上所述,在tBERT 模型基础上加入对抗训练并引入池化操作改变问答对语义特征提取方式、引入主题信息特征组合以及改进激活函数是可行的。

    为了进一步验证本文模型的有效性,本文还对2.3 节所述的9 种模型进行了实验对比,结果如表7 所示。

    表7 相关模型准确率和F1值的对比 单位:%Tab.7 Comparison of accuracy and F1 scores of related models unit:%

    从表7 可以看出,本文模型在SemEval-2016CQA 数据集上的准确率和F1 值分别达到80.7%和76.1%,在SemEval-2017CQA 上的准确率和F1 值分别达到80.5%和79.9%,均取得了最好的效果。实验结果中,第二类模型即ECNU、Siamese-BiLSTM、UIA-LSTM-CNN 以及AUANN 模型整体性能优于第一类模型即LDA 主题模型。这是因为CNN 和BiLSTM 比LDA 主题模型能够更有效地对问题和答案潜在的上下文语义信息进行建模。在第二类模型中,ECNU 和Siamese-BiLSTM 模型在两个数据集上的结果有明显的差异,在SemEval-2017CQA 数据集上的表现能力更好,这是因为SemEval-2017CQA 数据集相较于SemEval-2016CQA 数据集更加规整,噪声词较少。ECNU 模型相较于Siamese-BiLSTM 模型,在SemEval-2017 数据集上的表现能力较好。这是因为ECNU 模型除了用CNN 表示问答对的语义,还引入5 个额外的特征,有助于建立问答对的相关性。值得注意的是,AUANN 模型在第二类模型中性能表现最佳,这是因为AUANN 模型在UIA-LSTM-CNN 模型的基础上加入了问题-答案、问题-用户信息交互模块并引入了对抗训练过滤掉与问题无关的用户信息。本文模型相较于AUANN 模型,在两个数据集上的准确率分别提高了0.2 和2 个百分点,F1 值分别提高1.6 和0.1 个百分点。这是由于本文模型在嵌入层增加对抗样本并引入池化操作改变问答对语义的提取方式,能够更有效地表示问题和答案深层的语义特征。此外,本文模型还引入特征组合整合问答对的主题信息丰富问答对的语义表示,相较于用户信息作为额外特征,引入问答对主题信息特征组合更能增强问答对的语义表示。

    第三类模型都使用预训练模型BERT 表示问答对的语义信息,相较于前两类模型,BERT 模型使用Transformer 的编码器提取问答对信息。BERT-pooling 相较于BERT 模型,在两个数据集上的准确率分别提高了0.5 和0.9 个百分点,F1值分别提高了0.6 和0.7 个百分点。说明对BERT 的输出取平均作为问答对的表示效果更好。GMN-BERT 相较于BERT-pooling 模型,在两个数据集上的准确率分别提高了0.6 和0.4 个百分点,F1 值分别提高了0.3 和0.5 个百分点。这是由于图神经网络能够捕捉全局结构信息,与预训练模型相结合能够利用问答对潜在的语义关系。在第三类模型中,tBERT 在两个数据集上的性能表现最佳。这是因为tBERT模型增加了额外的主题信息特征,更加丰富了问答对的语义特征表示。

    综上所述,本文模型的综合性能优于所有对比模型。这是因为:本文模型加入对抗训练并引入池化操作改变问答对语义特征的提取方式;
    其次,引入主题信息特征组合加强文本主题信息间的联系,增强问答对的语义表示;
    最后,本文模型改进了隐藏层的激活函数,增强了特征的鲁棒性,从而提高模型的整体性能。

    2.5 案例分析

    为了直观地看出本文模型的有效性,首先选用Semeval-2017CQA 数据集中的一个例子并可视化对抗训练和池化方法对问题的注意权重。颜色深浅表示单词的重要程度,颜色越深越重要。其结果如表8 所示。

    从表8 可以看出,tBERT 模型和本文模型都关注了“salary”“negotiating”“mechanical engineer”“grade 5 in a government company”“Qatar”词语。不同的是,tBERT 模型对“mechanical engineer”和“Qatar”赋予最高的注意权重,把注意力重点放在“mechanical engineer”和“Qatar”上。而本文模型由于使用对抗训练和池化方法,使得模型对“How much salary”“salary of mechanical engineer”“grade 5 in a government company”及“benefits”赋予最高的注意权重。两个模型对同一问题预测的答案如表9 所示。

    表8 tBERT模型与本文模型对同一例子的注意力可视化对比Tab.8 Comparison of attention visualization to the same example between tBERT and proposed model

    由表9 可知,tBERT 模型错误地预测了该例子的答案,但是本文模型预测正确。由于两个模型对问题中的词语的注意权重不同导致不同的结果。tBERT 模型根据问题主题词“mechanical engineer”“Qatar”来预测答案;
    由于本文使用主题信息特征组合方法,使得模型预测答案的主题词与问题的主题词相关联,如答案中的“12-15”“free government housing、3 000 mobile and internet allowance”分别与问题中的“How much”“benefits”相对应。从注意力可视化到预测答案的结果可以看出,对抗训练和池化方法使得模型关注重点词语并弱化不重要的词语的权重;
    主题信息特征组合方法,加强问题和答案的主题信息间的联系,最终提升了模型的性能。

    表9 tBERT模型与本文模型对同一问题的预测答案的对比Tab.9 Comparison of answers to the same question predicted by tBERT and proposed model

    对于答案选择任务存在的问答对语义信息表示不完整的问题,本文在tBERT 模型基础上,引入对抗训练和池化操作来表示问答对的语义信息。由于简单地拼接主题特征不能有效地建立特征之间的联系,本文引入点积操作和按位减操作加强问答对主题特征间的联系,进而增强问答对的语义表示。实验结果表明本文模型相较于tBERT 模型能更好地提取问答对的语义特征以及提高模型预测能力;
    但是深入挖掘问答对中潜在的语义特征,仅利用主题模型作为辅助是不够的。在未来的工作中,我们将进一步研究使用图神经网络或者将知识库嵌入到预训练模型中完成答案选择任务。

    猜你喜欢语义准确率函数二次函数新世纪智能(数学备考)(2021年9期)2021-11-24第3讲 “函数”复习精讲中学生数理化·中考版(2021年3期)2021-07-22乳腺超声检查诊断乳腺肿瘤的特异度及准确率分析健康之家(2021年19期)2021-05-23不同序列磁共振成像诊断脊柱损伤的临床准确率比较探讨医学食疗与健康(2021年27期)2021-05-132015—2017 年宁夏各天气预报参考产品质量检验分析农业科技与信息(2021年2期)2021-03-27二次函数新世纪智能(数学备考)(2020年9期)2021-01-04函数备考精讲中学生数理化(高中版.高考数学)(2020年9期)2020-10-28语言与语义开放教育研究(2020年2期)2020-03-31高速公路车牌识别标识站准确率验证法中国交通信息化(2018年5期)2018-08-21“上”与“下”语义的不对称性及其认知阐释现代语文(2016年21期)2016-05-25

    推荐访问:组合 模型 特征

    • 文档大全
    • 故事大全
    • 优美句子
    • 范文
    • 美文
    • 散文
    • 小说文章