眸视科技SLAM软件技术

  • SLAM(同时定位与地图构建)是指移动机器人在没有环境先验信息的情况下,于运动过程中建立环境模型的同时估计自己运动的过程。
  • 通过视觉相机、激光雷达、GPS、IMU、编码器等传感器代替感官观测外部环境信息(包括环境几何、外貌以及语义)和自身运动(包括速度、位置、方向),通过算法估计自身在环境中的位置并能够维护一个描述外部世界的模型。
  • 融合激光雷达、视觉、IMU、GPS等多种传感器,结合语义信息、动态环境变化信息,使机器人能够在复杂特定环境下可靠稳定运行。

激光雷达+视觉SLAM

产品介绍

眸视科技SLAM方案支持激光雷达SLAM,也支持视觉SLAM。同时眸视科技支持激光雷达+视觉融合SLAM方案,也就是在SLAM中同时使用激光雷达与摄像头进行定位与导航。

激光雷达与摄像头属于不同传感器类别,他们分别有各自的优缺点:

激光雷达的优点是能提供准确的距离信息,同时因为激光雷达是自身发光,所以激光雷达能够在完全黑夜的环境中工作。激光雷达的缺点是采样点比较稀疏(比如某些单线激光雷达一个scan只有360个测量点),同时由于激光雷达SLAM方法取决于对齐几何点云,在几何退化场景中(例如长直的隧道)可能会导致SLAM失败。

摄像头能提供丰富的环境信息(RGB)并且信息相对比较稠密(比如普通单目摄像头能提供640*480的像素点的图像信息)。摄像头的缺点是对环境照明条件敏感,比如在黑暗的环境中无法工作。同时在没有特色的环境,如阴天,地面积雪,全白色的墙,也会导致基于视觉的SLAM陷入困境。

产品功能

  • 室内+室外机器人定位与导航

产品优势

激光雷达+视觉SLAM融合方案能够弥补激光雷达
与摄像头各自的弱点:

  • 能够使用相机的密集的角度分辨率以
    弥补激光雷达的稀疏性
  • 使用激光雷达的准确范围信息,以
    解决相机深度感知的模糊性
  • 即使任何一个传感器发生故障,激光
    雷达+视觉融合SLAM系统也能正常工作

应用场景

激光雷达+视觉SLAM融合方案能够适应更多复杂的环境,使SLAM能够在多种环境下工作:

  • 黑夜
  • 隧道
  • 雾天,雪地
  • 高速运动的汽车上
  • 更多其他环境

产品展示图

机器视觉与SLAM融合

产品介绍

北京眸视科技有限公司作为国内领先的视觉追踪研发单位,实现在未知环境中(未制作地图情况下)追踪目标(人 )行走,实现对指定目标的检测和实时跟踪,做出前进、后 退、左转和右转等基本操作,并且和目标保持1.5米的距离。

使用范围

智能旅行箱、工厂物品托运、家庭智能监控、特定行人轨迹追踪等。

功能介绍

(1)机器人对行人目标的跟随;
(2)机器人保持和追踪目标保持一定范围,在追踪过程中可实现避障;
(3)可以实时获取机器人正前方的场景信息,识别行人信息;
(4)将机器人行走过程中周围环境制作成地图;

产品展示图

视觉SLAM+IMU

产品介绍

视觉SLAM是利用视觉传感器进行定位导航的算法集合,利用视觉传感器代替激光雷达能够很好的降低SLAM产品的成本,同时精度与激光雷达相近。但是纯视觉SLAM难以在单一重复的场景时有效定位,而传感器+IMU方案能够很好的解决这一难题:
  视觉与IMU的融合可以借助IMU较高的采样频率,进而提高系统视觉的输出频率;
  视觉与IMU的融合可以提高视觉的鲁棒性,如视觉SLAM因为某些运动或场景出现的错误结果;
  视觉与IMU的融合可以有效的消除IMU的积分漂移;
  视觉与IMU的融合能够校正IMU的Bias;
  单目与IMU的融合可以有效解决单目尺度不可观测的问题。
视觉SLAM系统支持单目、双目、深度摄像头三种类型。

单目视觉加IMU

  • 成本低。单目与IMU的融合可以有效解决
    单目尺度不可观测的问题

双目视觉加IMU

  • 通过双目视角获得物体的深度,结合IMU可以避免在特征少的白墙、沙漠等环境跟丢的难题

深度摄像头加IMU

  • 建图准确,不易跟丢。结合IMU有效避免了深度
    传感器受阳光,墙面反光等对SLAM的影响

产品展示图

多传感器融合SLAM

产品介绍

通过平滑和建图实现激光-视觉-惯性里程计的紧耦合框架,用于实时状态估计和建图。
  采用因子图的形式,由两个子系统,一个视觉惯性系统和一个激光雷达惯性系统组成;
  当两个子系统检测到故障时或者当检测到足够的特性时,可以独立工作;
  VIS进行视觉特征跟踪,并可选择使用激光雷达帧提取特征深度信息;
  通过优化视觉重投影的误差和IMU测量,视觉里程计可作为激光雷达扫描匹配的初始值,并在因子图中引入约束条件;
  在使用IMU测量值进行点云纠正后,LIS提取激光雷达的边缘和平面特征,并将其与在滑动窗口中维护的特征图相匹配;
  在LIS中估计的系统状态可以发送到VIS,以方便其初始化;
  对于闭环检测,候选匹配首先由VIS识别,并由LIS进一步优化;
  在因子图中,联合优化了视觉里程计、激光雷达里程计、IMU预积分和闭环的约束条件。最后,整个系统以IMU的频率输出位姿估计;

产品功能

  • 定位、制图、导航、避障

产品优势

通过多传感器融合实现雷达和视觉的能力互补,实现更加鲁棒的SLAM;并且在单一系统失效的情况下仍然能够保证SLAM的正常工作。

产品展示图

基于深度学习的目标检测和跟踪

产品介绍

基于深度学习技术,卷积神经网络的FASTER-CNN或者YOLO对于行人和物体的快速识别技术, 帮助机器人能够识别周围的目标,并进行跟踪,这可以使得机器人更加智能的感知环境,并进行 相应的控制如避障、更加智能的路径规划等。公司是市场上第一个能够将二维激光雷达和三维 视觉融合并用于机器人定位和导航、行人识别方面的厂家。
融合体现在两个方面:

  • 基于视觉特征形成三维点云,将视觉的三维点云与二维
    激光雷达的点云融合;
  • 基于视觉做深度学习的行人及移动目标的检测和跟踪,
    然后再与二维激光雷达的深度信息融合;

产品展示图

动态环境建图

产品介绍

大多SLAM假设周围环境是静态不变的,这是目前SLAM最明显的局限性。因为环境中的物体通常可以分成三类:

  • 静态物体:长时间稳定不变的物体,如墙、柱子等。
  • 半静态物体:大部分时间是静止的,但会在某个时刻发生变化。如时而开时而关的门,路边的停车。
  • 动态物体:移动的物体,如移动的行人、车辆。

通常的SLAM、定位算法都是基于静态环境假设的,也就是假设环境中都是第一类物体,显然,现实环境中并不是这样。动态环境才是更多应用场景的真实情况,所以解决动态环境下的SLAM是业界待解决的一个重要课题。

  • 在单次建图过程中,实时滤除高动态目标,避免高动态目标作为不必要的障碍物出现在SLAM产生的地图中。 该功能的应用场景包括SLAM制图过程中有行人、移动的车辆,动物等等情形。
  • 在多次建图过程间,针对低动态目标的出现、消失、移位等情形,自动更新地图从而反映出当前的低动态目标在地图中的状况。 该功能的应用场景包括巡检区域内新增了一个障碍物、原先环境中的某个物体被移走了或者变换了位置等等情形。
  • 在多次建图过程中,当机器人移入之前未建图的区域时,可以基于之前的地图基础上增加新区域的地图。 该功能的应用场景包括巡检区域需要扩展到之前未建图的区域等。

产品展示图

语义SLAM

产品介绍

将传统的SLAM方案与深度学习相结合,不仅实现机器人的定位问题,同时,还可以同步识别机器人的周围环境,对环境信息做出语义分割,利用分割后得到的物体进行定位的过程,让机器人从几何和内容两个层次感知世界。目前,我公司已能成功识别出多种目标(文本、行人、电表等,详情见机器视觉部分),并成功将文本信息嵌入了地图中。

  • 文字信息是人类识别周围环境的重要信息。将图文追踪与SLAM相结合,赋予机器人阅读并分析环境中文字标识的能力,是机器人向智能方向上前进的一大步,适用于室内导航,智能服务机器人,物流、巡检类机器人。

产品展示图

安全性避障

产品介绍

  • 机器人前进过程中能使用激光雷达,摄像头,避障雷达等传感设备侦测前进道路上的障碍物,自动避开,实现转向,后退、前左转弯、前右转弯等避障控制功能,能够避免对于行人、设备等的碰撞。

激光雷达避障

行驶过程中,利用激光雷达不断探测障碍物,并将障碍物信息反馈给路径规划模块。路径规划模块依据已知的地图信息和实时的障碍物信息,规划出绕开障碍物的路径,指令机器人绕开障碍物。

超声波避障

行驶过程中,利用超声波不断探测障碍物,并将障碍物信息反馈给路径规划模块。路径规划模块依据已知的地图信息和实时的障碍物信息,规划出绕开障碍物的路径,指令机器人绕开障碍物。

机器视觉避障

行驶过程中,利用视觉不断探测障碍物,并计算出障碍物的位姿,然后将障碍物信息反馈给路径规划模块。路径规划模块依据已知的地图信息和实时的障碍物信息,规划出绕开障碍物的路径,指令机器人绕开障碍物。

创新、高效、开放