新闻动态
新闻动态

静园5号院前沿讲座:Alan Yuille谈对抗性审查和生成模型

  2020年11月24日,约翰·霍普金斯大学(Johns Hopkins University)认知科学和计算机科学系杰出教授、曾师从史蒂芬·霍金教授的计算机视觉领域知名学者 Alan Yuille 教授远程为中心师生带来了题为“Adversarial Examiners and Generative Models”的特邀报告。报告由中心助理教授刘利斌博士主持,相关内容同步通过 Bilibili 在线直播。

 

Alan Yuille 教授报告现场

 

  Alan Yuille 教授指出现有的基于回归的技术如深度神经网络使得计算机视觉取得了巨大进步,但这类方法面对对抗攻击仍然缺乏鲁棒性。这类基于回归的技术建立在机器学习的一个基础假设下,即训练集图像和测试集图像均从同一个潜在分布中随机抽样得到。但是在实际应用中测试图像经常是从一个与训练集图像不同的分布中采样而来的,因此导致模型在应用环境中以及面对对抗攻击时表现得不够鲁棒。这种分布不同是因为有限数据集是有偏的。由于视觉图像的复杂性,图像的所有可能组合空间是无限大的,任何有限大小的数据集都不足以消除数据偏差。在有限数据集存在有偏的情况下,现有的测试方法和训练方法都存在问题。Yuille 教授认为对抗性审查和生成模型可能是这些问题的解决方案。

 

Alan Yuille 教授在线报告

 

  在如何测试模型上,Yuille 教授提出对抗性审查。他认为我们目前对视觉算法的评估和度量是有问题的,在计算机视觉领域我们更应该关心最坏的情况而不是平均情况。他提出“让你最坏的敌人来测试你的算法”,这样可以更好地探测算法的缺点。我们应该根据算法在以往图片上的性能表现来挑选图片做测试,而不是随机挑选。这种更有挑战性的测试方法可以更好地检测算法的鲁棒性。

 

  在如何训练更稳定的模型上,Yuille 教授介绍了两种方法。一是对遮挡物和补丁攻击更鲁棒的生成模型,该模型将组合模型和深度卷积神经网络集成到一个统一的深度模型中,可以在遮挡物分类上取得更高的准确率,并且在定向补丁攻击中表现出了更强的鲁棒性。二是可以解决域适应的计算机图形学的方法。该方法提取物体的计算机图形模型并对其关键点进行一次标注,然后针对关键点通过变换视角,姿态,照明,纹理和背景来生成大量的模拟图片,使用这些图片训练关键点识别并与真实图片进行再训练后,在域适应任务上表现优异。

 

  最后,Yuille 教授对本场报告的主要内容,包括有限大小数据集存在的问题,为算法建立新的测试方案和提高算法训练的泛化性和有效性方面做了总结,并对同学们提出的提问进行了详细的解答。

 

现场同学提问

【报告回放】:https://www.bilibili.com/video/BV1qp4y1r74u