在近日于意大利罗马召开的“机器人学:科学与系统大会”上,美国麻省理工学院(MIT)的科研团队展示了如何用“同步定位与绘图”(SLAM)技术来提高目标识别系统的性能。
SLAM技术能让移动机器人自我定位、绘制出自身所在位置的地图;目标认知系统是未来机器人的关键组成部分,帮助它们操纵身边的物体。新的目标识别系统由MIT机械工程系教授约翰·莱奥纳德的团队设计,他们将目前的SLAM技术和目标认知算法结合,只用普通的视频摄像机作外部输入,把不同角度获取的信息融合在一起,使系统性能可媲美特种机器人目标认知系统,而后者需要深度测量和视觉信息。
论文第一作者、MIT计算机科学与工程系研究生苏迪普·皮尔莱说,在猜测图像中包含了哪些物体之前,新系统会首先识别两个物体之间的边界,初步分析颜色转变,在此基础上把图像分成多个各自包含某种物体的矩形区域,然后对每个区域内的像素作识别计算。
研究人员指出,传统目标识别系统可能需要对这些矩形区域重画几千次。因为从某个角度来看,两个并排的物体看起来好像是一个,特别是当它们颜色相似的时候。因此系统必须对一些假设进行测试,比如假设它们是一个,或假设它们是分开的。
而SLAM技术生成的图像是三维的,所以在区分近距离物体方面比单一角度分析系统好得多。用SLAM技术来指导图像分割并分区计算,在处理假设时效率更高。更重要的是,SLAM技术能把不同角度图像的分区与目标识别系统关联起来,对各图区作分析,就可能绘出同一物体的不同角度,提高系统识别能力。
目前,该团队正在探索SLAM技术的核心难题“环路闭合”,即在机器人绘制它所在地地图时,可能发现它以前来过这里——比如从不同的门进入同一个房间它要能认出以前到过哪些地方,才能把来自不同角度的地图数据更好地结合在一起。
评论
加载更多