| 项目GitHub地址 |

项目介绍

本项目旨在设计适用于室内环境的低成本(多)机器人定位技术,用于机器人集群定位及运动控制相关的研究与原型验证。与SLAM等自定位技术不同,该项目的并非使用机器人自身运算,而是通过外部传感器进行位置定位。项目的目的在于:(1)一是应用于低成本无法运行SLAM算法的机器人中;(2)二是作为独立的定位系统提供位置数据或作为自定位算法的参考。

室内定位概述

对于机器人系统,室内定位系统(Indoor Positioning System, IPS)的作用有:

  • 为机器人提供位置反馈,形成闭环;
  • 提供位置基准reference,用于验证及矫正位置相关的算法(如SLAM)。

室内环境定位分为基于无线通信与基于视觉两种:

  • 无线的方案一般采用三角定位法,又可细分为:
    • WiFi
    • BLE
    • Zigbee
    • UWB – 超宽带定位技术
    • RFID
  • 视觉方案可分为(一般需要在机器人上安装标定点):
    • 全局单目视觉
    • 多视角运动捕捉系统

以上两种方向各有优劣,业内也提供了很多相关的商业化产品。我们考虑在保留精度的情况下,如何可以低成本的实现以上方案。并且对于计算能力、成本较低的机器人,是无法通过SLAM或视觉特征匹配来实现自定位的,需要外界系统辅助。

技术指标要求

目前定下的目标是:

  • 总成本不超过1000元;
  • 在5m x 5m空间范围内的定位精度误差 < 10cm;
  • 物体识别速度 > 10 FPS;
  • 可同时识别多个物体 (n >= 10);
  • 安装配置简单。

设计方案

经过前期的一些方案调研,我们决定先使用全局单目视觉的方法,尝试使用廉价摄像头对目标范围内的移动机器人进行位置捕捉。之所以采取这种方式,是因为这样需要的成本最低,并且架设十分方便,只需要对相机进行一次标定即可。在此基础上,可以通过多相机的方式提高精度,类似于电影中的动作捕捉系统,从而实现精度与成本的tradeoff。除了使用常规相机外,另一种思路是使用广角或360度相机,然而这对相机的矫正产生了更大的要求。

项目进展

  • 2021年01月19日:项目正式启动,更多信息会在这个页面持续更新。请收藏本页面或关注本项目的GitHub

>> 本文章版权归作者所有,如需转载请联系作者授权许可。
>> 原文来自: 云飞机器人实验室
>> 原文地址: YF-IPS | 针对机器人的室内定位系统
>> 关于我们: 关于云飞实验室
>> 支持我们: 帮助我们可持续发展


作者

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据