对抗攻击中的迁移性质指的是,即使一些模型有着不一样的模型架构以及训练过程,针对一个模型生成的对抗样本仍然能成功迁移攻击到另一个模型。为了更好地保护 ML 系统免受对抗性攻击,需要考虑迁移现象产生的充分条件是什么以及如何去控制它?以及有没有办法降低迁移性从而提升整体机器学习模型的鲁棒性?本期我们邀请到了来自伊利诺伊大学香槟分校的杨卓林,对这些问题进行解答。