点击上方“计算机视觉life”,选择“星标”
快速获得最新干货
很多人让我推荐激光雷达-视觉-惯导的多传感器融合SLAM算法,LVI-SAM就是其中一个优秀的算法。
扫描开始学习~

1什么是LVI-SAM?

LVI-SAM是MIT团队的TixiaoShan等人开源的一个紧耦合的激光雷达视觉惯导SLAM系统,可以实时高精度鲁棒的进行状态估计和建图。
LVI-SAM构建在因子图之上,并且由两个子系统组成:一个视觉惯导系统和一个激光惯导系统。这两个子系统利用紧耦合的方法,视觉惯导的系统利用激光惯导的估计来做初始化。视觉惯导系统利用激光雷达的测量给视觉特征提供深度来提升精度。同时激光惯导系统利用视觉惯导的估计值作为初值来做帧的匹配。利用视觉做闭环检测,把检测的结果给激光惯导系统来做优化。当激光惯导和视觉惯导子系统的一个失败的时候LVI-SAM仍然可以工作,这极大的提升了系统在缺少纹理或者特征场景中的鲁棒性。

2为什么要学LVI-SAM?

  • 与其他开源框架相比,有更好的算法鲁棒性,有更优越的算法精度
  • 是目前最先进的开源LVIO框架之一
  • 涵盖IMU预积分、特征提取、视觉滑窗、因子图优化、回环检测等多方位内容
  • 学会LVI-SAM算法有助于理解其他多传感器融合框架
  • 代码有注释,讲师带读。代码注释地址 https://github.com/electech6/LVI-SAM_detailed_comments
  • 为统一环境调试代码,我们做了docker镜像(感谢刘嘉林同学);为LVI-SAM算法录制了校园数数据集(感谢刘嘉荣同学)。

3LVI-SAM学习路线

经过周密准备,计算机视觉life联合哈工大博士汪寿安推出为期1个月的学习挑战赛,《快速入门多传感器融合SLAM:LVI-SAM》,下面是关于demo部分的讲解
课程特色如下:
  • 短期高效率的闯关模式,学员齐头并进,一起攻克学习难题
  • 社区化学习:每天视频 + 作业 + 答疑 + 评比,拒绝拖延症
  • 优秀学员奖学金,学习更有动力
  • 合理设计,学5休2,工作忙可以集中闯关,学习工作两不误
早鸟优惠50元,还有2个名额,快来抢,更多介绍查看
下面是详细学习规划
扫描开始学习~
“长按”“扫描”下方二维码,加入【小六的机器人SLAM圈】即可开始学习~3天内无条件退款~ 购买后务必加客服领取其他权益和加交流群,现在加入免费送近千页5年机器人SLAM答疑手册
最后介绍一下我们最近的几个学习活动:(点击下方标题即可快速获取)

管道内单目视觉SLAM尺度漂移较明显,定位挑战很大。学完本项目,你可以动手做到:利用管道的圆柱形结构约束,基于ORB-SLAM2改进地图点位置估计,从而优化SLAM算法精度。详情点击 从小白到老手,我如何搞定管道机器人位姿估计?
LVI-SAM是MIT团队的TixiaoShan等人开源的一个紧耦合的激光雷达视觉惯导SLAM系统,可以实时高精度鲁棒的进行状态估计和建图。哈工大博士带你学习,1个月的学习挑战赛,详情点击 MIT团队开源的这个激光雷达视觉惯导SLAM系统,太香了!
FAST-LIO2是香港大学火星实验室(MARS)发表在IEEE-RAL和IEEE-TRO的两篇论文,是一种具有高计算效率、高鲁棒性的雷达惯性里程计(LIO)本课程中上海交通大学博士王泽霖推出为期1个月的学习挑战赛第2期,从原理到实战快速掌握,详情点击 香港大学开源的这个激光雷达惯性SLAM,太强了!
本项目对ALOAM进行改进,融合众多新技术,ALOAM+ LINK3D + CSF + BALM,纯激光雷达SLAM效果逼近LIO-SAM。详情点击 我用纯LiDAR SLAM实现逼近LIO-SAM的效果,如何做到?

继续阅读
阅读原文