4 个月前

注意力机制(并非)常识推理的全部需求

注意力机制(并非)常识推理的全部需求

摘要

最近引入的BERT模型在多个语言理解基准测试中表现出色。本文描述了BERT在常识推理方面的简化重新实现。我们展示了BERT生成的注意力可以直接用于代词消歧问题和温格拉德模式挑战(Winograd Schema Challenge)等任务。我们提出的基于注意力的常识推理方法概念上简单但实证上强大。在多个数据集上的实验分析表明,我们的系统在所有情况下表现优异,且显著超越了之前报告的最佳水平。尽管结果表明BERT似乎隐式地学会了建立实体之间的复杂关系,但解决常识推理任务可能需要超出从大规模文本语料库中学习到的无监督模型的能力。

代码仓库

基准测试

基准方法指标
coreference-resolution-on-winograd-schemaUSSM + Supervised DeepNet + KB
Accuracy: 52.8
coreference-resolution-on-winograd-schemaUSSM + KB
Accuracy: 52
coreference-resolution-on-winograd-schemaBERT-base 110M + MAS
Accuracy: 60.3
natural-language-understanding-on-pdp60BERT-base 110M + MAS
Accuracy: 68.3
natural-language-understanding-on-pdp60USSM + Supervised Deepnet
Accuracy: 53.3
natural-language-understanding-on-pdp60USSM + Supervised Deepnet + 3 Knowledge Bases
Accuracy: 66.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
注意力机制(并非)常识推理的全部需求 | 论文 | HyperAI超神经