4 个月前

并非所有层都同等重要:每一层都很关键——BERT

并非所有层都同等重要:每一层都很关键——BERT

摘要

本文介绍了一种针对语言模型数据高效预训练的新型变压器架构修改方法。该方法通过参与BabyLM挑战赛进行了评估,在严格赛道和严格小型赛道中均取得了胜利。我们的方法允许每个变压器层选择要处理的前一层输出。实证结果验证了这一简单修改的潜力,并表明并非所有层都同等重要。

基准测试

基准方法指标
linguistic-acceptability-on-colaLTG-BERT-base 98M
Accuracy: 82.7
linguistic-acceptability-on-colaELC-BERT-base 98M
Accuracy: 82.6
linguistic-acceptability-on-colaLTG-BERT-small 24M
Accuracy: 77.6
linguistic-acceptability-on-colaELC-BERT-small 24M
Accuracy: 76.1
natural-language-inference-on-multinliELC-BERT-base 98M (zero init)
Matched: 84.4
Mismatched: 84.5
natural-language-inference-on-multinliELC-BERT-small 24M
Matched: 79.2
Mismatched: 79.9
natural-language-inference-on-multinliLTG-BERT-small 24M
Matched: 78
Mismatched: 78.8
natural-language-inference-on-multinliLTG-BERT-base 98M
Matched: 83
Mismatched: 83.4
natural-language-inference-on-rteLTG-BERT-small 24M
Accuracy: 53.7
natural-language-inference-on-rteELC-BERT-small 24M
Accuracy: 55.4
natural-language-inference-on-rteELC-BERT-base 98M (zero init)
Accuracy: 63
natural-language-inference-on-rteLTG-BERT-base 98M
Accuracy: 54.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
并非所有层都同等重要:每一层都很关键——BERT | 论文 | HyperAI超神经