语言和知识的表示学习在其各自领域一直以来都是非常重要且基础的研究方向,因为语言和知识任务存在的相似性和互补性,两者的方法经常互相借鉴、交互发展。在非上下文表示的时代(如语言表示学习的word2vec、知识表示学习的TransE),就有工作联合学习语言和知识的表示以增强在模型在两类任务上的性能。近年来随着ELMo、BERT等预训练语言模型的发展,上下文表示开始在语言和知识的表示学习中占据主导地位。因此,如何联合两者的上下文表示学习方法来缓解语言模型的知识匮乏问题同时增强知识模型的语言理解能力成为一个重要的研究问题。本期论坛我们邀请到来自复旦大学的孙天祥同学,分享他提出的统一语言和知识联合表示的学习模型CoLAKE。