写在前面的话

我是张羽,现在是南京大学的一名博士生。研究方向是计算机视觉,计算摄像学
首先我要向 AI 研习社表示衷心的感谢。在 2019 年的夏天,我通过同学介绍,了解到了这样一个专门针对学术青年开发者的求知求职社区,对于我这种经常要看论文的科研学生来说,能够提供很多启发。通过加入各个顶会小组,恰好又看到了社区推出的「CVPR 2019 顶会赞助计划」,心想真是一个非常绝妙的机会,我一定要把握住。

通过不断在社区的积极参与,我最后获得了「CVPR 2019 顶会赞助计划」最后的赞助名额,感到非常荣幸。其实参与的过程真的非常有意义,也是我自己在平时学习过程中,把查阅研习的论文整理、解读并且和社区的其他小伙伴们一同分享,通过这样的方式一点一点积累研值,自己能够受益,也可以帮助其他人更好地学习和拓宽视野,可以说是双赢。

「AI 研习社顶会赞助计划」
:https://ai.yanxishe.com/page/blogDetail/9901

欢迎大家扫码关注我的社区主页~
就这样,我乘坐上了由社区赞助的免费飞机,开始了我的美国 CVPR 之旅。

旅途随想

一年一度的计算机视觉的饕餮盛宴 CVPR 已于近日落下帷幕,喧闹的会场,绚烂的展台,以及静谧的海滩,在大家脑海中留下的印记,一时间还难以褪去,良辰美景奈何天,赏心乐事谁家院,让我们一起回到长滩海岸,再来回顾一下这次盛会。
让飞机从上海起飞,在洛杉矶机场的降落过程中,可以透过舷窗看到城市的地貌以及布局。不难看出街道和房屋基本都是横平竖直的结构,一个一个 block 的街区,类似纽约曼哈顿那样,由 street 和 avenue 分别从东西和南北两个方向对城市进行划分,很多街道就以 street 或 avenue 的编号来命名,如 5th street,7th avenue。这样既直观也好记,唯一的问题是这种街道名字缺少一点特色,一旦忘了编号,可能真的找不到回宾馆的路了。

下了飞机,规划接下来的行程路线时,发现订的住宿离会场还有点远,每天即使是打车到会场,也要二十多分钟的样子,还要走一段高速。既然住的远,还是租个车方便一点。从机场直接坐 shuttle 来到一家租车公司,提了一辆尼桑轿车,接下来可以每天开车往返会场,时间可控一些。

抵达现场

从洛杉矶驱车半小时,来到了位于长滩的会场。这个会场应该是当地最大的一个会场了。远远的就看到了 CVPR 的标志,还是有点小激动的。会场内的地图看上去就很复杂,研究了好久,才算研究出来了到几个主会场的路线。

头两天大会安排的 Tutorials 和 workshops 内容非常丰富,既有工业界主办的论坛,像 baidu,waymo 等公司纷纷在论坛上介绍公司 release 的最新数据集和一些解决方案,也有学术界组织的最新论文研读,学术圆桌讨论等等内容。有的论坛被围了个水泄不通,想挤进去都很难,更不要说找个前排座位,好好听听报告了。
在 101 会议室里,来自 facebook 的几位研究员正在讲解目标检测的相关工作,从 faster rcnn 到 mask rcnn 再到 mesh rcnn,大家可能都是冲着这几位顶尖学者来的,但是 he kaiming 的缺席还是给大家带来了些许的遗憾。
faster rcnn 是比较早期的目标检测的算法,其中的一些思想已经延续到了后续的一些检测的框架中了,比如常见的 anchor based 类的方法,当然,今年渐渐涌现出了一些 anchor free 的方法,强调不用 anchor,也能实现高效的目标检测。后面 kaiming 发明的 mask rcnn 在 FPN 基础上,多了一条支路去做实例分割。
最新推出的 mesh rcnn 可用于三维目标检测,从单张二维图片中去检测不同物体,并预测各个物体对应的三角网格,通过这种方法,将二维目标的检测问题拓展到了三维目标检测上,模型将目标检测,语义分割和预测损失联合在一起来训练和优化。
旷视公司在他们的 workshop 上公布了两个检测方向的数据集,如 crowd human 以及 objects 365。第一个数据集,主要针对密集人群下的检测问题,因为此时 nms(非极大抑制) 会排除掉很多的候选框,造成在存在相互遮挡关系的人体检测时,会出现漏检,误检的诸多问题。
密集人群检测的需求,在很多实际场合都能遇见到,如城市级别的视频监控,集会场景下的人群检测等等,这方面的研究既有较强的学术价值,也有工业落地的需求。
第二个数据集包括了常见的 365 种不同的物体,类别数量目前远超 coco 的 80 个类别,为了推出这个数据集,旷视公司也是花了大量的时间和费用来完成海量数据的标注,相信也会对学术界和工业界的下一步的研究和应用提供极大的帮助。
谷歌公司在其举办的 workshop 上,详细介绍了各种深度相机的成像原理和最新的一些技术进展,包括基于双目原理的深度相机,基于结构光的深度相机,基于 TOF 飞行时间距离的深度相机以及利用深度学习从 RGB 图片中直接估计出深度数据的深度相机,从原理,到应用,深入浅出,吸引了不少听众。
谷歌 VR 部门的负责人 Paul 也是带来了其成名作 light stage 相关部分的介绍,通过主动式的深度获取技术结合 photometric stereo 来实现高质量的,毛孔级的人脸以及人体数据的采集和重建。Paul 作为世界顶级的 appearance 方面建模的专家,曾受到白宫的邀请,将他们研制的三维扫描重建系统带进白宫,给时任总统奥巴马做了一次面部的高精度扫描重建。

正会开始

6 月 18 日上午 8:30,opening ceremony 正式开始,上下共三层的大剧院里坐的满满,迟到几分钟,很可能就一位难求。跟据大会主席朱松纯教授的介绍,这次大会注册参会人数达到 9227 人,来自全球 68 个国家,为历届之最,其中来自中国地区有 1044 人,美国地区 4743 人。本次大会接收论文的投稿数为 5160 篇,最终录用 1294 篇,录用率约为 25%。大会一共邀请了 2887 名评审专家。

值得一提的是,本次大会的口头报告采取了新的形式。一共有 288 个口述报告,每个口述报告一共 5 分钟的时间,三个一组,按主题归类,一组报告结束后有三分钟的提问环节。采用这种报告方式也是为了加快进程。

今年的最佳论文对非视距(non-line-of-sight/NLOS)成像做出了显著性贡献,属于计算摄像学领域,作者分别来自于卡耐基梅隆大学,伦敦大学,多伦多大学,论文一作是来自于卡耐基梅隆大学的博士研究生 Shumian Xin。这篇文章使拐角成像变成了可能,文章在理论上有所突破,同样也具有很大的启发性,会继续推动业内同行的研究,将计算机视觉中的一些不可能的研究壁垒变成可能。非视距是近年来兴起的一个研究方向,麻省理工大学 Media Lab Ramesh Raskar 教授,斯坦福大学的 Gordon Wetzstein 教授作为先驱在这个方向做了不少工作。随着 CVPR19 最佳论文的最后确定,相信这个方向也会吸引越来越多科研工作者的关注。

这里显示是入围最佳论文的候选论文,入围的作者好好努力,希望这次不是他们离最佳论文最近的一次。

PAMI Longuet-Higgins 奖是 IEEE 协会 PAMI 技术委员会在每年的 CVPR 颁发的计算机视觉基础贡献奖,表彰十年前对计算机视觉研究产生了重大影响的 CV,PR 论文,今年对获奖论文为李飞飞等人 2009 年发表在 CVPR 大会的论文 ImageNet: A Large-Scale Hierarchical Image Database。据谷歌学术显示,该篇论文的引用量目前已经达到惊人的 11615 次,令人叹为观止。

IEEE 计算机协会与 1981 年设立的计算机先驱奖,以表彰至少在十五年前对计算机领域发展做出突出贡献的个人。今年该奖项授予加州大学伯克利分校电气工程和计算机科学专业的教授 Jitendra Malik,也属众望所归。

不知道大家有没有注意到,CVPR 官网近日发布了一个交互式可视化工具,大家可以用 MIT,谷歌,微软等关键字查询这些公司发表的论文情况,检索出论文的主题,作者以及口述报告或者海报展示的日程安排。

本次大会一共有 284 个赞助商,104 个展商,总共收获了 310 万美元的赞助。赞助厂商当中既包括大名鼎鼎的谷歌,微软,亚马逊,也包括旷视,商汤,华为,百度,大疆,滴滴等国内厂商。

开幕式结束后,口述报告在三个平行论坛 Deep Learning,3D Multiview,Action & Video 分别在 Terrace Theater, Grand Ballroom, Promenade Ballroom 同步进行,每个会场大约都能容纳两三千人。报告给人的感觉就是紧凑,信息量大,往往听众沉浸在内容当中,还没有回过神来的时候,下一个报告已经开始了,这时只能默默的记下感兴趣的报告编号,等到海报环节,再和作者进行详细的沟通和交流。
(本文未完待续,更多内容敬请期待《顶会赞助计划 | 南大 CV 博士眼中的 CVPR 2019(下)》篇)

AI 研习社顶会赞助计划

错过了 CVPR 2019 顶会赞助计划?没关系,我们还为你准备了更多的免费机票和酒店赞助你去其他顶级会议!
IJCAI 顶会赞助计划即将在 2019 年 07 月 23 日评选结束,我们将继续赞助三位社区用户承包往返澳门机票+酒店+注册费。
未来,我们还会推出更多顶会赞助计划,为热爱学习的你插上求知的翅膀,助你在学术的天空更好地翱翔~
扫码关注 AI 研习社顶会赞助专题,了解更多精彩内容及回顾
你可能还想看
点击
阅读原文进入CVPR小组查看更多精彩内容
继续阅读
阅读原文