Home
Products
Cases
News
Buy
Support
About Us
Home
Products
News
Buy
Support
About Us
Join US

利用多传感器融合技术解决机器人可靠定位问题

近日,思岚科技CTO黄珏珅在第三届中国人工智能与机器人开发者大会(CAIRDC 2020)线上论坛【视觉、感知、多传感器融合】上,分享了《利用多传感器融合技术解决机器人可靠定位问题》。

利用多传感器融合技术解决机器人可靠定位问题

思岚科技CTO黄珏珅认为,要解决机器人的可靠定位,就是要让机器人在未知环境中拥有自主移动的能力。

「在日常生活中,我们对机器人的期望有很多,比如货物搬运、移动销售、购物引导、安保巡逻、家庭清洁……,那机器人就必须具备一个共同点【自主移动】,就要解决三大哲学问题,“我在哪儿?我要去哪里?我要怎么去?”」

多传感器融合

机器人如何像人一样,看见“物理”世界呢?如果按照人的逻辑,应该要有一个“camera”来充当TA的眼睛。但是单目摄像头缺乏尺度信息,无法直接用于导航;双目摄像头对环境光比较敏感,无法稳定工作。

利用多传感器融合技术解决机器人可靠定位问题

激光雷达可以直接获取尺度信息,适合后期SLAM。

激光雷达相对摄像头来说,不仅可以直接获取周围的环境、尺度信息,而且数据量小,适合后期SLAM。

多传感器融合

RPLIDAR A3 地下车库采集环境轮廓信息

激光雷达获取的只是一个局部信息,还需要SLAM算法

思岚科技CTO黄珏珅在线上分享中还提到:单线激光雷达目前获取到的只是一个局部的信息,无法解决机器人的“三大问题”。所以,我们还需要SLAM算法。至此,我们要了解一些有关SLAM的名词,比如ICP(Iterative Closest Point)、Particle Filter、Graph SLAM等等。

多传感器融合 

SLAM 3.0, 构建满足导航需求的地图

我们目前最新的算法SLAM3.0就是采用图优化方式进行构图,能实现100,000+平米级别的地图构建能力,同时拥有主动式回环闭合纠正能力,能很好的消除长时间运行导致的里程累计误差,成为目前行业中最受欢迎的定位导航方式。

再也不需要面对“能力不够,人力来凑”的尴尬局面了。

 利用多传感器融合技术解决机器人可靠定位问题

183m*110m

 

200m*180m

相比较粒子滤波每次直接将传感器数据更新进入栅格地图进行增量式构建的做法,SLAM3.0存储地图构建过程中调整了图结构中每个节点的pose和对应的传感器信息以及所有关键点构建的位姿关系图,利用全部的机器人位姿信息和对应传感器数据生成环境地图。

SLAM 3.0 编码了机器人在SLAM过程中的位姿变化拓扑地图,相关的拓扑信息 

当机器人运动到已经探索过的原环境时, SLAM 3.0可依赖内部的拓扑图进行主动式的闭环检测。当发现了新的闭环信息后,SLAM 3.0使用Bundle Adjuestment(BA)等算法对原先的位姿拓扑地图进行修正(即进行图优化),从而能有效的进行闭环后地图的修正,实现更加可靠的环境建图。且在边走边建图的过程中,不会产生拖尾,因为我们会对这些因素做滤波处理。

多传感器数据融合,锦上添花

有了激光雷达和算法的助力,还需要多传感器数据的融合,锦上添花。传感器对收集到的信息进行有效处理和融合,能够让机器人更为直观地判断出周围的环境,确保更多可靠的信息被利用,做出更智能,更类人的判断,完成导航。

多传感器融合

在最后的答疑环节中,思岚科技CTO黄珏珅表示依然会看好多传感器对机器人产业的影响,未来自主移动也会越来越“智能”。技术突破上,激光雷达会变得越来越小巧,SLAM算法也会越来越高级。他还表示,传感器之间是融合关系而不是替代关系。将这些多传感器技术融合在一起,提供原先单一传感器做不到的效果。

关键字:机器人,思岚科技,多传感器融合

top