深度神经网络已被发现容易受到对抗性样本的影响,即一个人眼不可见的扰动会让神经网络做出错误的预测,对抗训练也因此被提出,通过在原始训练图片中混入即时生成的对抗性样本来提升模型的鲁棒性。本期讲者傅泳淦同学的工作首次发现了一个有趣的现象:在随机初始化的神经网络中,隐藏着据有天生鲁棒性和准确率的子网络,即使没有经历过对抗训练,它们也能够和类似参数量且对抗训练后的模型达到一致的鲁棒性。