(含源码)「自然语言处理(NLP)」完全数据驱动对话系统&&新型知识感知图网络&&双向专注记忆网络

来源: AINLPer
微信公众号(每日更新...
编辑: ShuYini
校稿: ShuYini
时间: 2020-08-03

引言: 本次文章主要介绍问答领域的相关知识,其中主要包括完全由数据驱动的生成对话系统GenDS、NLP转SPARQL完成复杂问题问答系统、新型知识感知图网络模块KagNet门控图神经网络对语义解析的图结构进行编码、BAMnet的新型双向专注记忆网络、实体提及检测和实体歧义消除的联合优化神经架构等。

论文打包获取方式:关注AINLPer 微信公众号(每日更新...)回复:QA008

1、TILE: Flexible End-to-End Dialogue System for Knowledge Grounded Conversation
Author: Wenya Zhu • Kaixiang Mo • Yu Zhang
Paper: https://arxiv.org/pdf/1709.04264v1.pdf
Code: None
论文简述: 在基于知识的会话中,域知识在音乐等特定领域中起着重要作用。基于知识的会话应答可能包含多个应答实体,也可能根本没有应答实体。虽然现有的生成式问答(QA)系统可以应用于基于知识的会话,但它们要么在回答中最多只有一个实体,要么不能处理词汇之外的实体。为此我们提出了一个完全由数据驱动的生成对话系统GenDS,该系统能够基于输入信息和相关知识库(知识库)生成响应。为了生成任意数量的答案实体(即使这些实体从未出现在训练集中),我们设计了一个动态知识查询器,它根据不同的局部环境在单个响应中的不同位置选择不同的答案实体。它不依赖于实体的表示,这使的我们的模型能够处理词汇表外的实体。我们收集带有知识注释的人类对话数据(ConversMusic)。该方法在CoversMusic和一个公共问答数据集上进行了评价。结果显示,本文提出的GenDS系统在BLEU、实体精度、实体召回率和人工评估方面显著优于基线方法。此外,实验还表明,GenDS即使在小数据集上也能工作得更好。


2、TILE: SPARQL query generation for complex question answering with BERT and BiLSTM-based model
Author: Evseev D. A. • Arkhipov M. Yu.
Paper: http://www.dialog-21.ru/media/4930/evseevdaplusarkhipov-myu-048.pdf
Code: https://github.com/deepmipt/DeepPavlov
论文简述: 本文介绍了基于Wikidata知识库的复杂问题的问答系统。与需要从知识库中提取单个事实的简单问题不同,复杂问题基于不止一个三元组,需要逻辑和比较推理。提出的问答系统将自然语言问题转换为SPARQL语言进行查询,执行该查询会给出一个答案。该系统首先定义了与问题对应的SPARQL查询模板,然后用实体、关系和数值填充模板中的槽模型。实体检测采用基于BERT的序列标记模型。利用BiLSTM和基于BERT的模型,分两步对候选关系进行排序。该模型是LC-QUAD2.0数据集的第一个解决方案,该系统能够回答包含比较或者布尔推理的复杂问题。



3、TILE: KagNet: Knowledge-Aware Graph Networks for Commonsense Reasoning
Author: Bill Yuchen Lin • Xinyue Chen • Jamin Chen
Paper: https://arxiv.org/pdf/1909.02151v1.pdf
Code: https://github.com/INK-USC/KagNet
论文简述: 常识性推理旨在赋予机器以人类能力来对我们日常生活中的一般情况做出假设。在本文中,我们提出了一个回答常识问题的文本推理框架,该框架有效地利用外部的、结构化的常识知识图来执行可解释的推理。该框架首先将一个问答对从语义空间建立到基于知识的符号空间,作为外部知识图的相关子图。该框架使用一个名为KagNet的新型知识感知图网络模块来表示模式图,并最终使用图表示对答案进行评分。我们的模型基于图卷积网络和LSTMs,并带有基于路径的分层注意机制。中间注意分值使其透明、可解释,从而产生可信的推论。使用ConceptNet作为基于BERT的模型的唯一外部资源,我们在CommonsenseQA(用于常识推理的大规模数据集)上取得了最优异的性能结果。



4、TILE: Modeling Semantics with Gated Graph Neural Networks for Knowledge Base Question Answering
Author: Daniil Sorokin • Iryna Gurevych
Paper: https://www.aclweb.org/anthology/C18-1280.pdf
Code: https://github.com/UKPLab/coling2018-graph-neural-networks-question-answering
论文简述: 基于语义分析的知识库问答方法是目前最常用的方法。在本文中,我们解决了学习由多个实体和关系组成的复杂语义分析的向量表示的问题。先前的工作主要集中在为问题选择正确的语义关系上,而忽略了语义解析的结构:实体之间的联系和关系的方向。 本文提出使用门控图神经网络对语义解析的图结构进行编码。 我们在两个数据集上进行实验室对比表明,图网络优于未对结构进行显式建模的所有基线模型。 错误分析证实了本文方法可以成功处理复杂的语义解析。


5、TILE: Neural Machine Translation for Query Construction and Composition
Author: Tommaso Soru • Edgard Marx • André Valdestilhas
Paper: https://arxiv.org/pdf/1806.10478v2.pdf
Code: https://github.com/LiberAI/NSpM
论文简述: 在研究基于知识库问答的过程中,近年来越来越多地使用深度学习架构。本文研究了神经机器翻译范式在问题解析中的应用,使用一个序列到序列的模型来学习SPARQL图查询语言中的图模式及其组成。我们希望是一种半监督的方法,即通过模板建立问题和查询之间的对齐,而不是通过问答对来控制程序。


6、TILE: Bidirectional Attentive Memory Networks for Question Answering over Knowledge Bases
Author: Yu Chen • Lingfei Wu • Mohammed J. Zaki
Paper: https://arxiv.org/pdf/1903.02188v3.pdf
Code: https://github.com/hugochan/BAMnet
论文简述: 在回答基于知识库(KBs)的自然语言问题时,不同的问题组件和知识库扮演着不同的角色。然而,大多数现有的基于嵌入的知识库问答方法(KBQA)忽略了问题和知识库之间微妙的相互关系(例如,实体类型、关系路径和上下文)。在这项工作中,我们提出通过一种叫做BAMnet的新型双向专注记忆网络,它可以直接模拟问题与知识库之间的双向交互流。在WebQuestions基准测试中,我们的方法不需要外部资源,只需要很少的手工特性,其实验结果显著优于现有的基于信息检索的方法,并与(手工)基于语义解析的方法不相上下。此外,由于我们使用注意机制,我们的方法比其他基线提供更好的可解释性。

7、TILE: Mixing Context Granularities for Improved Entity Linking on Question Answering Data across Entity Categories
Author: Daniil Sorokin • Iryna Gurevych
Paper: https://arxiv.org/pdf/1804.08460v1.pdf
Code: https://github.com/UKPLab/starsem2018-entity-linking
论文简述: 每一种知识库问答方法的第一阶段都是对输入问题中的实体进行链接。我们研究了问答任务上下文中的实体链接,并提出了一种针对实体提及检测和实体歧义消除的联合优化神经架构,该架构主要是在不同级别的颗粒度上对周围的上下文进行建模。我们使用Wikidata知识库和可用的回答问题数据集来为问答数据的实体链接创建基准。在这个数据上,我们的方法比以前的最先进的系统表现更好,最终的分数平均提高了8%。


8、TILE: Learning Representation Mapping for Relation Detection in Knowledge Base Question Answering
Author: Peng Wu • Shujian Huang • Rongxiang Weng
Paper: https://arxiv.org/pdf/1907.07328v1.pdf
Code: https://github.com/wudapeng268/KBQA-Adapter
论文简述: 关系检测是包括知识库问答在内的许多自然语言处理应用中的核心步骤。之前的研究表明,单事实问题可以得到高精度的回答。然而,一个关键问题是,当前方法仅能对在训练数据中已发现其关系的问题获得较高的准确性。但对于看不见的关系,表现将迅速下降。造成这一问题的主要原因是,看不见关系的表示丢失了。本文提出了一种简单的映射方法,即表示适配器,在已有的关系嵌入的基础上学习可见关系和不可见关系的表示映射。我们利用对抗性和重构目标来提高映射性能。我们重新整理了SimpleQuestion数据集来揭示和评估检测不可见关系的问题。实验结果表明,该方法在保证所看到部分性能与现有算法相当的情况下,可以大大提高不可见关系的性能。


Attention

更多自然语言处理相关知识,还请关注AINLPer公众号,极品干货即刻送达。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269