
摘要
我们提出了一种用于去噪高维测量数据的通用框架,该框架无需对信号进行先验假设,无需估计噪声,也无需干净的训练数据。唯一的假设是,噪声在测量的不同维度之间表现出统计独立性,而真实信号则表现出一定的相关性。对于一大类函数(“$\mathcal{J}$-不变”),可以从仅包含噪声的数据中估计去噪器的性能。这使得我们可以校准任何参数化的去噪算法的$\mathcal{J}$-不变版本,从中值滤波器的一个超参数到深度神经网络的数百万个权重。我们在自然图像和显微镜数据上进行了演示,利用了像素之间的噪声独立性,并在单细胞基因表达数据上进行了演示,利用了个体分子检测之间的独立性。该框架扩展了近期关于从噪声图像中训练神经网络和矩阵分解中的交叉验证的研究工作。
代码仓库
mozanunal/SparseCT
pytorch
GitHub 中提及
abbasi-ali/noise2self
pytorch
GitHub 中提及
czbiohub/noise2self
官方
pytorch
GitHub 中提及
royerlab/ssi-code
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| color-image-denoising-on-cellnet | DnCNN (n2t) | PSNR: 34.4 |
| color-image-denoising-on-hanzi | DnCNN (n2t) | PSNR: 13.9 |