曾捷航:复旦大学计算机学院研究生,导师为郑骁庆教授,主要研究方向为文本对抗样本的攻防等。
报告题目:基于对抗样本的依存句法模型鲁棒性分析
报告摘要:我们提出了黑盒和白盒两种攻击方法来攻击现有的性能最好的句法分析模型。在英文数据集PTB上的实验表明,这种攻击的成功率高达77%;并且我们还表明,通过精心设计对抗样本并将对抗样本用于训练阶段,可以提高句法分析模型的鲁棒性,同时保证原始干净输入样本的性能几乎没有出现很大下降。
Spotlight:
本文探讨了在不更改原始句子句法结构的情况下,通过生成对抗样本使依存句法模型犯错误的可行性;
本文提出了黑盒、白盒两种攻击方法用于攻击多种粒度 (字符级别、词级别等) 的依存句法模型;
通过使用精心设计的对抗样本增强训练模型,可以提高依存句法模型的鲁棒性。
1. Intriguing properties of neural networks
推荐理由:2013年,首次提出神经网络的“对抗样本“:对输入做一些细小的、人难以察觉的扰动,神经网络模型容易犯错误。
2. EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
推荐理由:2014年,提出FGSM方法用于攻击神经网络模型,经典的“熊猫“、”长臂猿“对抗样本例子就出自于这篇论文。
3. Crafting Adversarial Input Sequences for Recurrent Neural Networks
推荐理由:2016年,为循环神经网络设计对抗样本,对抗样本问题首次用于文本领域。
4. FREELB ENHANCED ADVERSARIAL TRAINING FOR NATURAL LANGUAGE UNDERSTANDING
推荐理由:一篇对抗训练文章,提出FreeLB方法对抗训练方法用于提高模型性能与鲁棒性。
5. Word-level Textual Adversarial Attacking as Combinatorial Optimization
推荐理由:基于提出粒子群算法和词义原的攻击方法。
6. BERT-ATTACK Adversarial Attack Against BERT Using BERT
推荐理由:2020年,通过BERT产生上下文相关的、语意连贯的对抗样本。