吴雨婷:北京大学信息科学技术学院直博三年级,主要研究方向为信息抽取,知识图谱(实体对齐、实体链接),图神经网络。
报告题目:异构知识图谱实体对齐和关系对齐的联合学习
报告摘要:实体对齐是实现异构知识图谱知识融合的有效手段。最近主流的实体对齐方法大都是基于嵌入表示的方法,即利用知识图谱的表示学习模型去建模知识图谱的结构信息,得到实体表示,从而通过计算不同知识图谱的实体表示间的距离来判断是否对齐。然而,目前绝大部分工作都没有尝试显式地利用关系表示去辅助实体对齐,而我们的论文证明这是一个提升实体对齐效果的简单且非常有效的方法。这篇论文提出了一个新颖的实体对齐联合学习框架。我们方法的核心是一个同时学习实体和关系表示的图卷积神经网络框架。我们的方法并不需要预先对齐的关系去学习关系表示,而是首先通过图卷积神经网络学到实体表示,然后利用实体表示去近似关系表示,进一步,我们将关系表示融合进实体表示中,从而迭代地学习两者更好的表示。我们在三个现实世界中的跨语言数据集上测试了我们的模型,实验结果显示我们的方法大幅度地超过了目前的state-of-the-art模型。
Spotlight:
提出了一个新颖的针对实体对齐任务的联合学习框架,可以同时实现实体对齐和关系对齐;
我们的模型不需要预先对齐关系,仅依赖一小部分种子对齐实体去得到实体和关系表示。且我们的联合学习框架可以灵活地应用于现有的实体对齐模型上;
我们的模型效果在实体对齐和关系对齐任务上都超过了现有的state-of-the-art模型。
1. Cross-lingual Knowledge Graph Alignment via Graph Convolutional Networks
推荐理由:这是第一篇尝试利用图卷积神经网络解决实体对齐任务的论文,在基于TransE学习知识图谱表示之外,给我们新的思路启发,为后面的利用图神经网络实现实体对齐的工作奠定的坚实的基础。
2. Relation-Aware Entity Alignment for Heterogeneous Knowledge Graphs
推荐理由:该文章通过引入对偶关系图去建模知识图谱中复杂的关系信息。模型核心是一个对偶图卷积网络,模型输入是待对齐的知识图谱和它们的对偶关系图,通过原始图和关系图的交互,利用关系信息去增强实体表示,从而实现精准的实体对齐。
3. Dual-Primal Graph Convolutional Networks
推荐理由:这篇文章提出了一个对偶图卷积神经网络(上面的那篇实体对齐工作正是受到了这篇论文的启发),该模型可以同时学的图的顶点表示和边表示,泛化了之前的Graph Attention Network(GAT),并在多个任务上取得了state-of-the-art效果。