4 个月前

学习概率对称化以实现架构无关的等变性

学习概率对称化以实现架构无关的等变性

摘要

我们提出了一种新颖的框架,旨在克服等变架构在学习具有群对称性的函数时的局限性。与等变架构不同,我们使用任意基础模型(如多层感知机或多头变换器),并通过引入一个小的等变网络来参数化对称化过程背后的概率分布,从而将其对称化为给定的群。该分布与基础模型一起进行端到端训练,可以在提高性能的同时降低对称化的样本复杂度。我们证明了这种方法不仅确保了对给定群的等变性,还具备期望下的通用逼近能力。我们在各种基础模型上实现了该方法,包括可以从预训练视觉变换器初始化的基于补丁的变换器,并对其进行了广泛的对称群测试,包括置换群、欧几里得群及其组合。实验证明,我们的方法在针对这些特定等变架构的竞争中表现出色,表明使用非等变通用基础架构可以有效地学习多样化的群等变函数。此外,我们还展示了从非对称模态(如视觉)预训练后,在对称模态(如图)上的学习效果得到了增强。代码可在 https://github.com/jw9730/lps 获取。

代码仓库

jw9730/lps
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-peptides-funcViT-PS
AP: 0.6575
graph-regression-on-peptides-structViT-PS
MAE: 0.2559
link-prediction-on-pcqm-contactViT-PS
Hits@1: 0.3287
Hits@10: 0.9526
Hits@3: 0.6694
MRR: 0.5341

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
学习概率对称化以实现架构无关的等变性 | 论文 | HyperAI超神经