4 个月前

结构优化中的歧义性和无监督神经语法诱导中的简约偏差

结构优化中的歧义性和无监督神经语法诱导中的简约偏差

摘要

神经参数化在无监督语法归纳方面取得了显著进展。然而,使用传统的似然损失对所有可能的句法分析进行模型训练会加剧两个问题:1) 结构优化模糊性(structural optimization ambiguity),即在结构上存在多种最优解的情况下,任意选择其中一个,而忽略了特定的黄金句法分析偏好;2) 结构简化偏差(structural simplicity bias),这会导致模型在构建句法树时未能充分利用规则。这些问题使得无监督神经语法归纳(UNGI)不可避免地出现预测错误、高方差以及需要庞大的语法集才能实现准确预测。本文针对这些问题进行了全面分析,探讨了其根源。作为解决方案,我们引入了句子级解析聚焦(sentence-wise parse-focusing),通过利用在同一数据集上预训练的解析器的结构偏差来减少每句话的解析池大小,从而用于损失评估。在无监督解析基准测试中,我们的方法显著提高了性能,同时有效减少了方差和对过于简单化的解析的偏向。我们的研究促进了更加紧凑、准确和一致的显式语法的学习,有助于提高可解释性。

代码仓库

GIST-IRR/Parse-Focusing
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
constituency-grammar-induction-on-ptbParse-Focused (NT=30)
Max F1 (WSJ): 68.4
Mean F1 (WSJ): 67.4
constituency-grammar-induction-on-ptbParse-Focused (NT=4500)
Max F1 (WSJ): 70.3
Mean F1 (WSJ): 69.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
结构优化中的歧义性和无监督神经语法诱导中的简约偏差 | 论文 | HyperAI超神经