学习SLAM需要哪些预备知识

学习SLAM需要哪些预备知识,第1张

首先搬出宝典:Multiple View Geometry in Computer Vision。

这本书基本涵盖了Vision-based SLAM这个领域的全部理论基础!读多少遍都不算多!

另外建议配合Berkeley的课件学习。(更新:这本书书后附录也可以一并读完,包括附带bundle adjustment最基本的levenberg marquardt方法,newton方法等)

只要是SLAM问题就要涉及optimization,就要用到各种least square算法。所以另一个基础理论是Sparse Matrix,这是大型稀疏矩阵处理的一般办法。可以参考Dr. Tim Davis的课件:Tim Davis ,他的主页里有全部的课程视频和Project。

针对SLAM问题,最常用的least square算法是Sparse Levenberg Marquardt algorithm,这里有一份开源的代码以及具体实现的paper:Sparse Non-Linear Least Squares in C/C++ 然后是框架级的工具。最常用的机器人框架是ROSROS.org | Powering the world's robots,可以使用在Windows,Linux和MacOS等 *** 作系统上,里面包含一整套常用的机器人理论的算法和工具的实现。

另一个开源工具集是OpenSLAM OpenSLAM.org,其中的g2o是目前最流行的graph optimization的实现工具。另外OpenCV也是视觉相关必备的基础工具,Multiple View教材中的常用算法在OpenCV中都有常用的实现。(更新:OpenCV的文档Camera Calibration and 3D Reconstruction 中,包含SLAM相关的基础理论公式以及C/C++/Python实现的API)

另外多说一句题外话,因为Optimization和图片的feature extraction是SLAM里最核心的两个问题,而这两个问题都是运算量极大的。好的SLAM框架要兼顾速度和精确度。目前大部分Vision或者RGBD的SLAM框架都是用C++来时实现完成的以确保运算速度。虽然我个人很欣赏Python,并且Python3也支持SciPy,OpenCV,ROS等重要工具,不过依然有大量的诸如g2o等基础性库在python下无法使用,而且如果要借鉴其他人的代码,最方便的还是在C++中实现。所以如果提问者有志于在这个领域做深入研究,夯实的C++基础是必不可少的。Introduction to Algorithms,以及 @vczh 推荐的C++ Primer等,都是在实际工作前要自己做好的功课。

下面说一些硬件和实验上的知识储备。首先Vision-based SLAM常用摄像机标定(Camera Calibration)的世界通用简单方法,是张正友博士(Dr. Zhengyou Zhang,主页Zhengyou Zhang's Home Page)的方法(张正友博士是本领域里少数的具有极其巨大影响力和贡献的华人学者,已成脑残粉嘤嘤嘤)。具体方法和实现,我在这里推荐两个,一个是Caltech工具箱:Camera Calibration Toolbox for Matlab ,以及相关paper:Camera Calibration Toolbox for Matlab。该方法的另一个实现,是Matlab最新版本内置的Camera Calibration的application,自动导入标定图片并把得到的结果输出给Matlab,更加自动化,更加便捷准确。更多的Camera Model理论知识请参考Multiple View Geometry。

至于RGB-D Camera,最常用的采集设备有两种,一种是Microsoft Kinect,一个生态环境完备的RGBD Camera,可以直接用Visual Studio可Kinect SDK直接开发,也有大量开发好的程序以供借鉴参考,也可以用OpenNI和ROS采集处理,我就不多介绍了,毕竟微软是对程序员最友好的公司没有之一(微软大法好)。另一个是Google的Project Tango,Google对于这个自家的神器还是很低调的,可以看看宣传片ATAP Project Tango ,绝对酷炫——可惜我们lab刚刚买的那一台,我还没有用过,所以对具体开发不太了解。 另外有几个网上成熟的数据集和测试方法,一个是Malaga Dataset,一个西班牙的团队采集的Malaga城市数据:The Málaga Stereo and Laser Urban Data Set,覆盖了城市中汽车驾驶的各种情况(停车,加速,减速,行人,建筑,绿化带等),里面提供了双摄像头,Laser,IMU等数据以及GPS的ground truth trajectory。不过该版本因为是在市中心,所以GPS的ground truth并不可靠。另一个是慕尼黑工业大学Computer Vision Lab的RGB-D dataset https://vision.in.tum.de/data/datasets/rgbd-dataset,里面提供了大量的室内的RGBD数据集,以及非常方便好用的benchmark tools。第三个是KITTI Dataset:The KITTI Vision Benchmark Suite,也是认可度很广泛的汽车驾驶数据集。

SLAM(即时定位与地图构建)是一种帮助机器人绘制地图,并导航它们行动的常用方法。

为了解决机器人导航问题,它们需要一些地图的帮助。

就像人类一样,机器人不能总是依赖GPS,尤其是当它们在室内运行时。况且,GPS在室外如果达不到几英寸的精度,机器人也不能安全地移动。

杭州艾豆智能激光SLAM 智能扫地机器人开源系统

一、说明

杭州艾豆智能科技有限公司,专注于机器人的室内定位与导航、自主运动,智能避障和视觉技术的研究。在SLAM算法,扫地机的运动控制,视觉等技术领域有六年多技术积累。

我们致力于为高性能消费级机器人提供室内定位导航及视觉解决方案,主要的产品有:360°扫描激光雷达SLAM定位导航套件,固定式激光雷达定位导航套件,及深度摄像头定位导航套件,陀螺仪惯导套件、智能扫地机器人控制主板、通用型激光SLAM 机器人底盘,智能消毒机器人。

我们积累了丰富的智能机器人室内导航定位系统,产品广泛应用与智能扫地机器人,智能全自动消毒机器人。

杭州艾豆智能,基于激光SLAM的智能扫地机人源码是一套完整的量产的源码。基于STM32和linux下C语言开发,基于本代码可以创建完整的商业级激光SLAM智能扫地机器人。

二、功能简介

1.功能

杭州艾豆智能科技有限公司的激光SLAM智能扫地机人源码,具备完整的智能扫地机器人功能,功能包括。

1)LDS激光雷达360度全方位扫描,10赫兹自适应扫描频率。

2)不低于8米的测距范围,测量量程1%的解析。

3) Class 1 激光安全标准。

4)激光SLAM定位,建图,导航功能。

5)快速全屋扫描地图算法,快速生成室内二维地图。

6)弧形掉头,工字清扫功能。

7)沿边清扫功能,支持激光沿边和红外沿边。

8)红外碰撞,碰撞块处理机制。

9)悬崖传感器,跌落计算处理。

10)以房间为单位划分区域,智能清扫策略,路径规划功能。

11)计算导航路径,导航算法。

12)后轮电机、滚刷电机、边刷电机,风机的驱动和调速功能。

13)后轮电机、滚刷电话,边刷电机,风机堵转保护功能。

14)自动回充对接充电桩功能。

15)APP地图显示、控制功能。

16)遥控器功能

17)手动遥控功能

18)智能避障

19)预约功能

20)虚拟墙功能

21)禁区功能

22)指哪去哪功能。

23)区域清扫功能

24)断点续扫功能。

25)智能语音功能。

26)OTA远程升级功能

2.技术特色

杭州艾豆智能科技有限公司激光SLAM智能扫地机器人采用自持专利算法,有别其他开源项目。

1)完全自主知识产权激光SLAM算法。

2)不采用传统开源SLAM算法,无需 *** 作系统支持,支持裸奔,支持嵌入式linux,抛弃臃肿的ubuntu和ROS系统。

3)快速识别门和房间,全屋快速扫描,生成地图算法。适用于室内自动扫描建图系统。

4)快速重定位功能,只要建好图,机器人随便扔,都能快速拟合重定位。

三、系统结构

1.系统结构

本激光SLAM导航智能扫地机器人系统由以下单元组成:

1)主控系统

2)激光SLAM算法板

3)传感器板

4)电机驱动器

系统结构图如下:

2.主控系统

主控系统采用STM32或GD32系统,用于电机运动控制和清扫策略计算,以及各个传感器的数据采集,分析。

3.激光SLAM算法板

激光SLAM算法板实现SLAM算法,房屋识别,门识别,分区算法。

4.传感器模块

传感器模块用于采集各种外围传感器数据。

电机控制模块

电机控制模块用于控制左行动轮,右行动轮,边刷电机,滚刷电机,风机,并通过编码器反馈形成电机闭环控制。

反馈监视电机电流,以便主控系统计算电机堵转。

四、快速入门

1.快速使用

从艾豆智能科技有限公司获取到激光SLAM智能扫地机器人源码。源码分三部分:

1)主控板源码,采用Keil uVision编译。

2)SLAM算法源码,基于linux编译。

3)APP代码,基于linux编译。

第一步:打开主控板源码。

使用Keil uVision V5.21.1.0打开“RE830\USER”目录下的irobot.uvprojx 文件,编译,生成hex或bin文件,烧录hex或bin文件。

本代码使用Source Insight编辑,建议使用者也采用SI编辑,如使用Keil编辑,可能会存在代码不对齐的情况。

第二步:打开SLAM源码:

进入slam 的build目录,执行make命令,生成slam文件,将slam

文件通过网络上传到linux算法板的update目录下。

第三步:打开APP源码。

在linux下,进入app的build目录,执行make命令,生成app文件,将app上传到linux算法板的update目录下。

重启系统,听到“系统载入中”的语音,稍后,开始按键,配网,使用APP进行控制,建图。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/7227864.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-03
下一篇 2023-04-03

发表评论

登录后才能评论

评论列表(0条)

保存