在“以人为中心的计算”中,根据传感器数据来识别和理解人的动作是关键的一环,而基于视觉的行为识别更是人机交互与感知中的关键。已有行为识别的方法大多基于实例级别的特征或知识进行学习,但对于人与物体交互这种复杂的行为,仅靠这种粗粒度的知识是不够的。SFFAI 72期-行为理解专题我们邀请到了来自上海交通大学的李永露同学,分享他在CVPR2020发表的一篇文章,用更细粒度的数据集和两阶段推理方法,对上述问题给出了较好的解决方案。