2021-12-23 组会报告摘要-03

本次组会将会介绍阅读的一篇论文《Attentive History Selection for Conversational
Question Answering》
,主要从以下几个方面介绍:

科研背景

随着会话式AI的快速发展,产生了各种个人助理产品,例如Apple Siri,Amazon Alexa,Google Assistant等。越来越多的用户依赖这些系统来进行日常工作,比如设置计时器或下订单。一些用户还与它们互动娱乐,甚至作为情感伴侣。

对话问答场景

一个典型的对话问答过程涉及多个轮次。在每一轮中,用户首先指定一个信息需求,然后机器(代理)检索答案并返回给用户。用户可以问一个后续的问题,或转移到一个新的信息需求,进入对话问答的下一轮。其中存在几种不同的情况:

  • 用户的问题与上一轮的回答相关,例如A1和Q2,A3和Q4,A4和Q5,A5和Q6。
  • 用户的问题与之前的轮次无关,例如A2和Q3。——话题转移
  • 用户的问题与很早之前轮次的相关,例如Q7和Q1。——话题返回

科研问题

虽然目前的个人助理系统能够完成任务,甚至进行聊天,但它们无法处理需要多次交互的复杂信息需求的信息寻找对话。

对话问答的主要挑战之一是利用对话历史来理解和回答当前的问题,但存在以下的问题:

  • 机器不能像人一样自主理解历史对话信息。
  • 如果我们把历史对话信息以同样的地位/权重放入模型中可能效果并不是很好。
  • 现有模型采用简单的启发式选择对话历史,假设前一轮次比其他轮次更有帮助。但这种假设不一定正确。 [1]对QuAC数据集进行了定性分析。他发现35.4%和5.6%的问题分别有话题转移话题返回的对话行为。在这两种情况下,当前的问题都与前一回合没有直接关系。

方法

本文从三个方面来解决对话问答存在的问题:

  • 提出一种历史答案嵌入方法,利用Bert对包含位置的对话历史信息进行自然编码。
  • 设计了一种历史注意机制(HAM)来进行对话历史的“软选择”。
  • 利用多任务学习在进行答案预测的同时进行另一个重要的会话任务(对话行为预测)。

模型