陈汉亭:北京大学智能科学系博士三年级在读,同济大学学士,研究兴趣主要包括计算机视觉、机器学习和深度学习。在ICCV,AAAI,CVPR等会议发表论文数篇,目前主要研究方向为神经网络模型小型化。
报告题目:加法神经网络:在深度学习中我们真的需要乘法吗?
报告摘要:和廉价的加法操作相比,乘法操作需要更大的计算量。在深度神经网络中广泛应用的卷积计算了输入特征和卷积核的互相关,其中包含着大量乘法操作。我们提出了一种加法神经网络来将 CNN 中的大量乘法操作用加法来代替。具体的,我们将输出特征使用滤波器和输入特征的 L1 距离来度量。通过细致的分析,我们提出了基于全精度梯度的反向传播和自适应学习率来帮助加法神经网络的训练。实验结果表明,我们提出的加法神经网络能够取得和卷积神经网络近似的准确率,并且在卷积层中不含任何乘法。
Spotlight:
本文提出了一种新型的加法神经网络,将卷积神经网络中的卷积运算使用加法代替,从而减少了其运算量;
我们提出了改进的梯度和自适应学习率用于加法神经网络的反向传播和训练;
我们提出的加法网络在图像分类大型数据集ImageNet上使用ResNet-50结构取得了74.9% Top-1和91.7% Top-5准确率,和原始卷积网络十分相近。
1. GradientBased Learning Applied to Document Recognition
推荐理由:最经典的的卷积神经网络LeNet-5,将卷积运算引入神经网络中。
2. ImageNet Classification with Deep Convolutional
推荐理由:著名的AlexNet,在2012年的ImageNet图像分类比赛上使用卷积神经网络达到了最低的15.3%的Top-5错误率,比第二名低10.8个百分点。
3. Deep Residual Learning for Image Recognition
推荐理由:将残差连接引入卷积神经网络中,让深层卷积神经网络的训练变得简单起来。
4. MobileNetV2 Inverted Residuals and Linear Bottlenecks
推荐理由:将常规卷积运算拆分为深度可分离卷积,提高了卷积的运算速度。
5. GhostNet More Features from Cheap Operations
推荐理由:提出了一种新的ghost模块,使用部分特征图生成其他的特征图来加速卷积运算。
6. DeepShift Towards Multiplication-Less Neural Networks
推荐理由:使用shift操作来替换卷积中的乘法操作。