4 个月前

多视图融合学习在作物分类中的比较评估

多视图融合学习在作物分类中的比较评估

摘要

随着遥感(RS)数据源的数量和多样性迅速增加,多视图学习建模的需求变得尤为迫切。考虑到遥感数据在分辨率、量级和噪声方面的差异,这是一项复杂的任务。传统的多源遥感数据融合方法通常是输入层融合,但其他更为先进的融合策略可能超越这一传统方法。本研究评估了在CropHarvest数据集中用于作物分类的不同融合策略。本研究所提出的融合方法在性能上超过了基于单个视图的模型以及先前的融合方法。然而,我们并未发现一种能够在所有情况下均优于其他方法的单一融合策略。相反,我们对三种不同的数据集进行了多视图融合方法的比较,并展示了不同测试区域中各种方法获得最佳性能的情况。尽管如此,我们仍建议了一种初步的选择融合方法的标准。

代码仓库

fmenat/multiviewcropclassification
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
crop-classification-on-cropharvest-kenyaFeature-level fusion (sum)
AUC: 0.716
Average Accuracy: 0.630
Target Binary F1: 0.794
crop-classification-on-cropharvest-kenyaGated Fusion (Feature-level)
AUC: 0.718
Average Accuracy: 0.665
Target Binary F1: 0.772
crop-classification-on-cropharvest-togoEnsemble aggregation
AUC: 0.909
Average Accuracy: 0.840
Target Binary F1: 0.778

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多视图融合学习在作物分类中的比较评估 | 论文 | HyperAI超神经