刘剑峰:中国科学院计算所硕士,主要研究方向为对话系统,目前发表了若干对话和生成方面的文章。
报告题目:知识增强的对话生成
报告摘要:目前基于Seq2seq架构的对话系统已经可以生成较为流利、合理的回答,但是要想让聊天机器人更加智能甚至human-like,仅仅依靠于当轮的问句以及对话历史上下文是远远不够。如何在对话生成的过程中融入知识就成为了对话生成的一个新的兴趣点。目前常见的两类知识类型,知识库与检索的文本信息,为聊天机器人的对话生成提供知识来源。从这两种知识出发,本次主讲人将介绍如何将它们与对话生成的工作相结合,然后从不同的角度分别讨论他们的技术发展路线,研究意义与未来的发展。
Spotlight:
介绍了两类常见的知识类型(知识库、检索的文本信息)。
介绍了在对话中融合两类知识的生成方法。
介绍了两个知识增强任务的技术发展脉络。
1. Knowledge Diffusion for Neural Dialogue Generation
推荐理由:这篇文章是较为早期在多轮对话上的生成工作,基于经典的HRED的对话生成模型,引入知识到上下文预测以及解码阶段。
2. Grounded Conversation Generation as Guided Traverses in Commonsense Knowledge Graphs
推荐理由:一篇新的基于知识库的工作,该工作在对对话生成中将常识知识图分为内在图以及外沿图两个部分,通过融合层次化的图信息以及对应文本信息来进行对话回答生成。
3. Open Domain Question Answering Using Early Fusion of Knowledge Bases and Text
推荐理由:开放领域问答,这篇文章是较为经典的利用知识库信息与文本信息相融合的工作。
4. Wizard OF WIKIPEDIAKNOWLEDGE-POWERED CONVERSATIONAL AGENTS
推荐理由:这篇文章提出了以魔法师与学徒对话的数据集,魔法师可以获取维基百科的文本信息进行回答生成,利用该数据的目的是希望聊天机器人能从文本中选择合适的知识进行对话生成。该工作引起了巨大的关注,在ICLR‘20就有两篇工作围绕这个数据集进行开展工作。
5. LOW-RESOURCE KNOWLEDGE-GROUNDED DIALOGUE GENERATION
推荐理由:考虑了在低资源情况下的知识选择和对应知识的回答生成。
6. SEQUENTIAL LATENT KNOWLEDGE SELECTION FOR KNOWLEDGE-GROUNDED DIALOGUE
推荐理由:本工作把多轮对话下的知识选择抽象为一个时序选择的过程,对知识选择进行更好的考量。