点击上方“计算机视觉life”,选择“星标”
快速获得最新干货
这将会是一个对你学习生活帮助很大的社群

欢迎加入
【小六的机器人SLAM圈】
,在这里你可以收获:

星主答疑解惑/定期直播分享/最新招聘信息/笔面试题速递/行业最新动态/

每日领域论文翻译/成员定期交流活动

还有星球专属视频哦~(图片篇幅有限,更多内容请移步官网
cvlife.net查看~)
以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容
点击领取学习资料 → 机器人SLAM学习资料大礼包
arxiv|港科大(广州)VLIS LAB发布事件引导视频帧插值算法在滚动快门帧中的自监督学习
【Self-supervised Learning of Event-guided Video Frame Interpolation for Rolling Shutter Frames】
文章链接:http://arxiv.org/abs/2306.15507
本文首次尝试在新的事件相机数据引导下,从两个连续的滚动快门( RS )帧中恢复任意帧率的潜在全局快门( GS )帧。虽然事件具有较高的时间分辨率,有利于视频帧插值( VFI ),但在处理该任务时遇到的一个障碍是缺乏成对的GS帧。另一个挑战是当捕捉移动物体时,RS帧容易出现失真。为此,我们提出了一个新颖的自监督框架,在一个统一的框架中利用事件来指导RS帧校正和VFI。我们的核心思想是估计位移场(DF)——在曝光时间内所有像素的非线性稠密3D时空信息,从而实现RS和GS帧之间的相互重建以及任意帧率的视频帧插值(VFI)。。   具体来说,提出了位移场估计( DFE )模块来估计来自事件的时空运动,以校正RS失真,并一步插值GS帧。然后,我们将输入的RS帧和DF结合起来学习一个用于RS到GS帧插值的映射。然而,由于该映射是高度欠约束的,我们将其与一个逆映射(即GS - to - RS)和RS帧变形(即RS - to - RS)耦合进行自监督。由于缺乏用于评估的标记数据集,我们生成了两个合成数据集,并收集了一个真实的数据集来训练和测试我们的方法。实验结果表明,我们的方法在性能上与之前的有监督方法相当或更好。
以上内容来自小六的机器人SLAM学习圈知识星球每日更新内容
“长按”“扫描”下方二维码,加入【小六的机器人SLAM圈】即可开始学习~3天内无条件退款~ 购买后务必加客服领取其他权益和加交流群,现在加入免费送近千页5年机器人SLAM答疑手册
全国最大的机器人SLAM开发者社区
最后介绍一下我们最近的几个学习活动:(点击下方标题即可快速获取)
计算机视觉life线下交流会(西安站)来啦!这是我们平台首次在西安举办线下活动,感谢西安知象光电科技提供活动场地~期待技术分享,交个朋友。大家一起交流,一起进步,欢迎小伙伴们参与~ 报名链接 【限额报名】计算机视觉life线下交流会(西安站)来啦!
管道内单目视觉SLAM尺度漂移较明显,定位挑战很大。学完本项目,你可以动手做到:利用管道的圆柱形结构约束,基于ORB-SLAM2改进地图点位置估计,从而优化SLAM算法精度。详情点击 实战:基于ORB-SLAM2的管道机器人圆柱约束的位姿估计
动态SLAM是在动态环境中进行定位和建图的算法。本课程带领你深入解读动态SLAM领域。短期高效率的闯关模式,学员齐头并进,一起攻克学习难题。动态SLAM方向全方面梳理
FAST-LIO2是香港大学火星实验室(MARS)发表在IEEE-RAL和IEEE-TRO的两篇论文,是一种具有高计算效率、高鲁棒性的雷达惯性里程计(LIO)本课程中上海交通大学博士王泽霖推出为期1个月的学习挑战赛第2期,从原理到实战快速掌握,详情点击 香港大学开源的这个激光雷达惯性SLAM,太强了!
继续阅读
阅读原文