
摘要
在本文中,我们提出了一种快速且强大的神经方法,适用于通用文本匹配应用。我们探讨了构建一个快速且性能良好的文本匹配模型所需的关键要素,并建议保留用于序列间对齐的三个核心特征:原始点特征、先前对齐特征和上下文特征,同时简化所有其他组件。我们在四个经过深入研究的基准数据集上进行了实验,这些数据集涵盖了自然语言推理、同义句识别和答案选择等任务。实验结果表明,我们的模型在所有数据集上的性能与当前最先进的模型相当,但参数数量显著减少,并且推理速度至少比性能相似的模型快6倍。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| natural-language-inference-on-scitail | RE2 | Accuracy: 86.0 |
| natural-language-inference-on-snli | RE2 | % Test Accuracy: 88.9 % Train Accuracy: 94.0 Parameters: 2.8m |
| paraphrase-identification-on-quora-question | RE2 | Accuracy: 89.2 |
| question-answering-on-quora-question-pairs | RE2 | Accuracy: 89.2 % |
| question-answering-on-wikiqa | RE2 | MAP: 0.7452 MRR: 0.7618 |