完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
1、YOLOv6中的用Channel-wise Distillation进行的量化感知训练来自哪里 知识蒸馏 (KD)已被证明是一种用于训练紧凑密集预测模型的简单有效的工具。轻量级学生网络通过从大型教师网络转移的额外监督进行训练。大多数先前用于密集预测任务的 KD变体在空间域中对齐来自学生和教师网络的激活图,通常通过标准化每个空间位置上的激活值并最小化逐点和/或成对差异。 与之前的方法不同,这里建议对每个通道的激活图进行归一化以获得Soft概率图。通过简单地最小化两个网络的通道概率图之间的Kullback-Leibler (KL) 散度,蒸馏过程更加关注每个通道的最显著区域,这对于密集预测任务很有价值。 作者对一些密集的预测任务进行了实验,包括语义分割和目标检测。实验表明提出的方法大大优于最先进的蒸馏方法,并且在训练期间需要更少的计算成本。特别是,在COCO 数据集上的 mAP 中将 RetinaNet 检测器(ResNet50 主干)提高了 3.4%,在 Cityscapes 数据集上的 mIoU 中将PSPNet(ResNet18 主干)提高了 5.81%。 原作者:ChaucerG
|
|
相关推荐
|
|
飞凌嵌入式ElfBoard ELF 1板卡-CAN编程示例之开发板测试
649 浏览 0 评论
该问题是用APP给芯海科技的CST92F25芯片发指令是出现的
2232 浏览 1 评论
768 浏览 0 评论
1525 浏览 1 评论
2271 浏览 1 评论
浏览过的版块 |
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-21 22:12 , Processed in 0.346130 second(s), Total 37, Slave 27 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号