| 项目GitHub地址 |
项目介绍
本项目旨在设计适用于室内环境的低成本(多)机器人定位技术,用于机器人集群定位及运动控制相关的研究与原型验证。与SLAM等自定位技术不同,该项目的并非使用机器人自身运算,而是通过外部传感器进行位置定位。项目的目的在于:(1)一是应用于低成本无法运行SLAM算法的机器人中;(2)二是作为独立的定位系统提供位置数据或作为自定位算法的参考。

室内定位概述
对于机器人系统,室内定位系统(Indoor Positioning System, IPS)的作用有:
- 为机器人提供位置反馈,形成闭环;
- 提供位置基准reference,用于验证及矫正位置相关的算法(如SLAM)。
室内环境定位分为基于无线通信与基于视觉两种:
- 无线的方案一般采用三角定位法,又可细分为:
- WiFi
- BLE
- Zigbee
- UWB – 超宽带定位技术
- RFID
- 视觉方案可分为(一般需要在机器人上安装标定点):
- 全局单目视觉
- 多视角运动捕捉系统
以上两种方向各有优劣,业内也提供了很多相关的商业化产品。我们考虑在保留精度的情况下,如何可以低成本的实现以上方案。并且对于计算能力、成本较低的机器人,是无法通过SLAM或视觉特征匹配来实现自定位的,需要外界系统辅助。
技术指标要求
目前定下的目标是:
- 总成本不超过1000元;
- 在5m x 5m空间范围内的定位精度误差 < 10cm;
- 物体识别速度 > 10 FPS;
- 可同时识别多个物体 (n >= 10);
- 安装配置简单。
设计方案
经过前期的一些方案调研,我们决定先使用全局单目视觉的方法,尝试使用廉价摄像头对目标范围内的移动机器人进行位置捕捉。之所以采取这种方式,是因为这样需要的成本最低,并且架设十分方便,只需要对相机进行一次标定即可。在此基础上,可以通过多相机的方式提高精度,类似于电影中的动作捕捉系统,从而实现精度与成本的tradeoff。除了使用常规相机外,另一种思路是使用广角或360度相机,然而这对相机的矫正产生了更大的要求。
项目进展
- 2021年01月19日:项目正式启动,更多信息会在这个页面持续更新。请收藏本页面或关注本项目的GitHub。
>> 本文章版权归作者所有,如需转载请联系作者授权许可。
>> 原文来自: 云飞机器人实验室
>> 原文地址: YF-IPS | 针对机器人的室内定位系统
>> 关于我们: 关于云飞实验室
>> 支持我们: 帮助我们可持续发展