上图给出了该方案的训练过程,
每次迭代过程中图像块的重建难易程度在变化,故用于超分的子网络也在动态调整,进而确保了网络的全部参数都能参数到训练过程中。
但是,常规的均匀采样策略不太适用于这里的模型训练。
本文提出了一种计算感知采样方案,即计算量越大的子网络训练次数越多。第j个子网络的采样概率定义如下:
上图给出了ARM方案的推理示意图,整个处理流程总结如下:
- 首先,将LR图像拆分为多个同尺寸的图像块;
- 然后,在这些图像块上计算器边缘得分;
- 其次,每个图像块的超分性能可以通过预构建的Edge-to-PSNR查找表进行粗估计,同时还可以估计所需计算消耗;
- 再次, 我们选择具有更小计算消耗、更高PSNR指标的子网络进行处理以达成计算消耗-性能均衡;
- 最后,我们将所有超分块合成最终的SR图像。
上图为笔者从作者开源的code中摘录出来的edge-psnr查找表信息,据笔者猜测:红色曲线对应插值,其他三条曲线分别对应不同复杂度的子网络。基本上,
除了第一个区间(插值的性能反而更优)外,其他区间均为模型越大性能越好,即纹理越多的图像块不同模型的性能差异越大。
基于上述信息,我们可以通过如下公式确定每个图像块对应的子网络:
Experiments
在实验方面,本文参考ClassSR进行训练集、验证集的划分。这里仅提供主要结论,细枝末节建议查看原文。
从上面两个表可以看到:
相比已有骨干和ClassSR,所提方案取得了更好的性能,同时计算量更少;相比ClassSR,在大多数场景下,ARM均具有相当或更好的结果。
上图也给出了硬件资源相关的超参数的实验对比,可用看到:
- 当可用资源接近于0时(见上图a),我们设置了一个非常小的,此时ARM自动选择了插值分支以满足计算约束;
- 当有稍多一些计算资源时(见上图b和c),我们设置了稍大的。以b对应图示为例,对于边缘得分低(<10)的块选择了插值,对于边缘得分位于10-180之间的选择了稍大的子网络subnet1,对更大得分的选择更大的子网络subnet2;
- 当有足够的计算资源时(见上图d),我们设置了更大的,此时ARM几乎对所有的块均选择了最大子网络subnet3。
- 从下图也可以看到:伴随着eta的增大,越来越多的图像块选择更大的子网络进行超分,进而逐渐提升了PSNR指标;相比,ClassSR,ARM具有更高的PSNR、更低的FLOPs。
个人理解
从超分结构角度来讲,从ClassSR中的结构配置向ARM的转换是一种很自然的思路,SNN中的USConv天然的适合做这件事,但它并不适合唯一的候选,还有其他的参数共享策略。
事实上,从该研究方向上来看,网络结构从来就不曾是核心关注点,
核心关注点应为是每个图像块应该根据何种信息选择何种大小的候选超分网络。在ClassSR一文中,作者提出了两种策略:(1) 分类器划分;(2) 梯度信息。ClassSR一文中的梯度信息与ARM中的边缘得分基本是一个意思。
ARM这里构建了一个包含个参数查找表T,先根据边缘得分划分区别再根据候选分拣不同子网络的粗估计PSNR确定子网络。但实际上,从统计信息来看,基本符合越大模型PSNR越大,所以也就退化成了全局选择最大子网络,可能应该是根据边缘得分选择对应大小的子网络(这就与ClassSR提到的梯度方案了,不过ARM方案可以划分的更细,比如文中的30份,而这是ClassSR所做不到的)。
ARM更进一步考虑每个块所需要的计算量以及实际可用计算量之间的均衡问题,而这才是这篇文章最大的一个价值:
根据可用硬件资源动态调整推理pipeline(笔者个人观点)。
最后一点,
ARM有一个“神来之笔”:将插值纳入到最终的部署网络中。这就使得该方案甚至可以部署到任意设备上,哪怕是无AI支撑的设备(直接调用插值就是了,哈哈)。
原作者: Happy