高旭:北京大学信息科学技术学院数字媒体所研究生,主要研究方向为视频多目标跟踪,相关论文已发表在ACM Multimedia上。个人主页见:实验室人员主页。
报告题目:An Introduction to Multiple Object Tracking and Related Topics
报告摘要:随着智能城市监控的普及以及自动驾驶领域的兴起,视频多目标跟踪成为了计算机视觉中的重要问题之一。然而,目标之间常常发生遮挡,天气光照不同,目标外观变化巨大等等,这些也成为了多目标跟踪的挑战。本次Talk主要系统地介绍多目标跟踪近些年来比较典型的方法,并介绍与多目标跟踪相关的一些领域的工作,例如轨迹预测(Trajectory Prediction)、视频行人重识别(Video Re-ID)等问题,最后与大家共同探讨未来的发展趋势。
Spotlight:
多目标跟踪;
轨迹预测;
视频行人重识别。
王强:中科院自动化研究所直博4年级,研究领域主要围绕实时目标跟踪算法,曾发表CCF-A类文章6篇,获得VOT2018视觉跟踪竞赛实时组冠军。个人主页
报告题目:实时孪生网络目标跟踪研究
报告摘要:在报告中,我们首先回顾基于孪生网络的视觉跟踪发展以及近期的视频目标分割发展。提出统一的实时目标跟踪以及视频分割框架。该方法(SiamMask)在离线过程中将实例分割分支引入孪生网络学习来提升视觉跟踪的表述精度。训练完成后,该方法只需矩形框进行初始化,即可完成视频目标分割任务。该方法在实时目标跟踪领域取得当前最高的精度性能,同时显著提升了视频目标分割的速度。
Spotlight:
基于孪生网络算法对比探索 ;
视频目标分割的近期发展。
1. Tracking The Untrackable- Learning to Track Multiple Cues with Long-Term Dependencies
推荐理由:本文来自于ICCV 2017,首次较为系统的用深度学习框架分别将跟踪中的外观模型、运动模型、交互模型用到了多目标跟踪框架中,实验结果提升明显。
推荐理由来自:高旭
2. Online Multi-Object Tracking with Dual Matching Attention Networks
推荐理由:本文来自于ECCV 2018。这篇文章很好的将空间注意力模型与实践注意力模型用到了多目标跟踪框架中,也就是既考虑到了检测框中真正包含目标的区域,又考虑到了已跟踪序列在不同时刻的置信度,实验结果提升明显。
推荐理由来自:高旭
3. Social GAN- Socially Acceptable Trajectories with Generative Adversarial Networks
推荐理由:本文来源于CVPR 2018。这篇文章主要解决的是轨迹预测问题,即已知当前帧某一目标之前的轨迹,预测该目标之后的轨迹。该方法提出用生成对抗的思路来生成多条可能存在的未来轨迹,思路比较新颖。
推荐理由来自:高旭
4. Fully-Convolutional Siamese Networks for Object Tracking
推荐理由:2016年牛津大学的Luca Bertinetto博士提出的全卷积孪生网络架构作为近期深度学习应用在目标跟踪领域的代表作。该方法利用数据驱动的方式进行离线训练,通过比较样本间的相似度学习,可有效区分目标与背景。在线过程中,其全卷积的架构可以快速在线运行,算法速度达到86fps,是首个可以实时运行的深度学习目标跟踪算法。该方法因其简洁有效的设计称为目前视觉跟踪中最有前景的方向之一。
推荐理由来自:王强
5. High Performance Visual Tracking with Siamese Region Proposal Network
推荐理由:商汤科技在CVPR2018提出将目标检测中的RPN (Region Proposal Network)模块引入到目标跟踪领域,该论文得到了目标跟踪领域研究者的广泛关注。该方法将目标跟踪的目标函数进行有效扩展,利用神经网络进行目标框的回归学习。大幅度提升了目标跟踪的精度性能,在目标跟踪领域的多个数据集中取得当前最好的结果(state-of-the-art);同时该方法摆脱了多尺度测试的束缚,大幅度提升了算法的跟踪速度达到160fps,具有较强的实际使用价值。
推荐理由来自:王强
6. ATOM- Accurate Tracking by Overlap Maximization
推荐理由:Martin Danelljan博士发表在CVPR2019上的最新论文(Oral)。该方法并没有继承近期非常热门的孪生网络架构,而是提出将目标跟踪分为目标分类和目标评价两个网络部分,前者分类用于粗定位,后者用于精细定位,即多阶段跟踪。目标估计网络使用了ECCV18的IoUNet结构,离线过程进行大规模训练学习,最大化预测框与真实框的IoU;目标分类网络使用了深度回归网络结构,由2层卷积层构成,在线训练,根据输出的map选择候选框交给目标估计网络,并且提出了新的快速在线训练方法。性能在多个数据集中取得最好结果,GPU下达到30fps。
推荐理由来自:王强
7. Fast Online Object Tracking and Segmentation- A Unifying Approach
推荐理由:中科院自动化所和牛津大学联合发表在CVPR2019年的最新论文,该论文提出一个统一的目标跟踪和视频目标分割的统一框架。利用孪生网络同时预测目标的分割结果以及矩形框,通过离线过程中的多任务学习有效提升网络的判别能力。该方法进一步扩展目标跟踪的目标表述,通过目标的分割预测,可以得到最精确的目标估计。同时,对于视频目标分割,该方法极大简化了初始化输入(由mask的初始化简化为矩形框的初始化),在GPU达到超实时的运算速度。将多个领域进行整合处理的思路也值得一读!
推荐理由来自:王强