首页 热点资讯 义务教育 高等教育 出国留学 考研考公
您的当前位置:首页正文

光学与深度特征融合在机器人场景定位中的应用

2023-12-31 来源:化拓教育网
第43卷增刊(I) 2013年7月 东南大学学报(自然科学版) JOURNAL OF SOUTHEAST UNIVERSITY(Natural Science Edition) Vo1.43 Sup(I) July 2013 doi:10.3969/j.issn.1001—0505.2013.S1.039 光学与深度特征融合在机器人场景定位中的应用 刘 冰 罗 熊 刘华平 孙富春 ( 北京科技大学计算机与通信工程学院,北京100083) ( 材料领域知识工程北京市重点实验室,北京100083) ( 清华大学计算机科学与技术系,北京100084) 摘要:针对移动机器人室内环境的场景定位问题,研究和提出了一种基于视觉光学与深度特征 融合的机器人场景匹配定位算法.首先针对摄像机采集到的光学图像和相应的深度图像信息进 行预处理,均匀采样后分别对其进行尺度不变特征变换SIFT的特征提取.然后将2组特征进行 特征融合,并利用局部线性编码LLC算法进行特征编码.最后应用线性分类器对场景图像进行 分类和匹配,得到场景定位信息.在基于PowerBot移动机器人和微软公司Kinect传感器搭建的 机器人实时场景定位系统中,针对设计的算法,进行了实验验证.实验结果显示,提出的算法获得 了较高的分类准确率,有效提高了机器人场景定位的工作效率,验证了场景定位算法的高效性和 可靠性. 关键词:深度;特征融合;场景匹配 中图分类号:TP391 文献标志码:A 文章编号:1001—0505(2013)增刊(I)-0188-04 Appfication of optical and depth features fusion on robot scene localization Liu Bing ’ Luo Xiong ' Liu Huaping Sun Fuchun ( School of Compu ̄r and Communication Engineering,University of Science and Technology Beijing,Beijing 100083,China) ( Beijing Key Laboratory of Knowledge Engineering for Materials Science,Beijing 100083,China) ( Department ofComputer Science andTechnology,TsinghuaUniversity,B蜘ing 100084,China) Abstract:In order to deal with the mobile robot scene lcaloization in indoor environment,a robot scene localization approach based on the fusion of visual optical and depth features is proposed. Firstly,the optical images nd athe depth images coHected by a camera are processed.After sampfing images,the scale invariant feature transform(S耵)iS implemented and a feature fusion operation of hoste two features is performed.Moreover,the feature is encoded by using the lcaloity—constrmn— ed linear coding(LLC)algorithm.Finally,through he tscene matching and classiifcation by using a ilnear classifier.the scene localization results are obtained.Meanwhile,the proposed algorithm iS tested on an experimental platform set up by mobile robot PowerBot and Microsoft Kinect sensor. The experimental results show that the accuracy ofthis algorithm is high.By this algorithm.the effi- ciency of the mobile robot scene lcaolization is improved,proving he teficifency and he treliabiily of tthis algorithm. Key words:depth;feature fusion;scene matching 移动机器人的场景定位技术是辅助机器人进 图像组匹配两方面的工作 .因环境的差异,机 器人活动范围可分为室内环境和室外环境两类.与 行精确定位与导航的有效方法之一.该技术主要涉 及基于场景图像组的特征提取和基于场景理解的 室外环境相比,室内环境更加结构化,但是不同场 收稿日期:2013-03.10. 作者简介:刘冰(1987一),女,硕士生;罗熊(联系人),男,博士,副教授,硕士生导师,xluo@ustb.edu.ca. 基金项目:国家自然科学基金资助项目(61174103,61174069,61004021)、中央高校基本科研业务费专项资金资助项目(FRF—TP-11- 002B)、材料领域知识工程北京市重点实验室2012年度阶梯计划资助项目(Z121101002812005). 引文格式:刘冰,罗熊。刘华平,等.光学与深度特征融合在机器人场景定位中的应用[J].东南大学学报:自然科学版,2013,43(S1):188— 191.[doi:10.3969/j.issn.1001-0505.2013.S1.039] 增刊(I) 刘冰,等:光学与深度特征融合在机器人场景定位中的应用 189 景间的差异性程度更小,导致视觉场景匹配的难度 variant feature transform,slv-'r)的特征提取,然后将 两组特征进行特征融合,并利用局部线性编码 (1ocality—constrained linear coding,LLC)算法进行 加大.同时,室内同一场景的局部性因素,比如图像 序列中只有某单一对象的图像,会造成较大的匹配 误差,导致定位的失败【4 J.现有定位算法比较复 杂,匹配和识别的准确率不够理想,同时提取的信 息来源比较单一.本文针对室内场景的复杂环境, 特征编码,最后应用支持向量机(support vector machine,SVM)的线性分类器(本文实验中采用的 是liblinear线性分类器),对场景图像进行分类和 匹配,得到场景定位信息.算法流程如图1所示. 1.2深度图像的获取和特征提取 基于特征融合技术,结合深度图像特征和光学图像 特征,设计了机器人场景定位的视觉匹配算法,并 应用于移动机器人的实时场景定位实验系统中,取 得了满意的应用效果. 在深度图像的获取方面,使用的深度成像传感 器主要分为两类:主动式和被动式.主动式是指向 1 基于光学与深度特征融合的场景 目标发射能量束,如激光、电磁波和超声波等.被动 式是指传感器利用周围的环境进行成像,形成具有 深度信息的图像.由于外界环境对被动式的传感器 匹配算法 1.1基本流程 本文提出的基于视觉光学与深度特征融合的 场景匹配算法,首先对Kinect摄像机采集到的光 影响极大,并且对测量装置的精度要求较高,因此 其应用范围的局限性很大,而主动式的传感器不存 在这些限制的不利影响,得到了广泛的应用 . 学图像与其相应的深度图像信息进行预处理,均匀 采样后分别对其进行尺度不变特征变换(scale in— 这里设计的算法实现过程中,主要使用Kinect传 感器,此类主动式深度传感器来进行图像采集. 图1算法流程 深度图像特征提取的目的是,提取出场景的三 维几何特征,建立场景的空间立体模型,然后通过 视觉匹配算法的处理,完成系统的高级任务要求. 本文中采用均匀采样的方式,对空间深度图像 进行SIFT特征提取 ,具体方法如下: 1)对深度图像进行滑动窗口取样.将深度图 像进行空间网格划分,实验中网格的尺寸为16× 16像素,采样时,滑动窗口尺寸也为16×16像素, 步长为8像素.由于图像中深度信息在一定范围内 取值,因此图像上每个网格窗口实际上对应了空间 坐标系下的一系列深度不同的窗口,此时提取特征 的过程是面向空间层次的.光学图像对应的深度图 图2光学图像对应深度图像层次演示 到整个样本图像的SIFT深度特征.当图像共划分 为Ⅳ个滑动窗口(Ⅳ大于网格数)时,整个样本的 SIFT深度特征为一个N×128维的特征向量,此即 样本均匀采样后的特征描述符. 像层次性如图2所示. 2)在每个窗口图像中提取局部SIFT特征.将 窗口划分为16×16个子窗口,然后在每个4 X4像 素的图像小窗口中进行梯度直方图统计,得到一个 8维的特征描述符向量,这样共得到4×4个描述 符,即4×4×8维向量.此时,每个窗口中可以提取 到一个128维的特征向量. 3)对窗口特征进行拼接.将每个滑动窗口中 提取到的反映深度信息的SIFT特征进行拼接,得 通过上述特征提取过程,完成了对深度图像样 本的特征提取,此时的SIP"局部特征不仅仅反映 了局部窗口的特征,还带有深度意义,能够通过此 信息尽可能地剔除场景中动态物体的干扰. 1.3光学图像特征与深度图像特征的融合 本文针对室内场景因干扰性和局部性强的特 19O 东南大学学报(自然科学版) 第43卷 点,而导致匹配和识别准确率不高的问题,这里考 虑将光学图像特征和深度图像特征融合匹配,以指 导场景的识别与定位. 在完成前述的RGB光学特征提取和Depth深 度特征提取之后,基于多特征融合技术,将特征描 述符按照一定的权值(本文实验中采用1:1的比 例关系)拼接,将这2种视觉特征有效结合,有效 地避免了单一特征对图像匹配和分类的局限性,增 强了算法的准确高效性. 1.4基于LLC的特征编码与匹配 本文采用LLC算法进行特征编码.LLC实际 上是对传统的基于BoF(bag—of-features)的稀疏编 码空间金字塔算法的升级和改进 J.它将局部特 征用最接近的k个词汇进行线性表达,其编码误差 较BoF的量化编码更小;同时,它使用“最大值合 并”(max pooling)方法,对于合并向量的每一维, 取所有“局部表达”向量在这一维度上的最大值, 作为合并向量在该维度上的值,即 =max{ f} 1≤f≤ 式中, 是第n个特征的LLC编码的第i个分量. 此后,LLC使用线性SVM中的liblinear线性分类 器进行分类,能够取得比传统的空间金字塔方法更 好的分类效果.同时,线性分类器的分类效率受到 词汇量增大的影响,远小于非线性分类器. LLC的局部约束编码方法,首先对每个局部 特征向量,采用k近邻算法,在词库中找到k个和 它最接近的词汇.然后计算该局部特征向量由这k 个词汇线性表达的系数,作为它的LLC编码.它利 用距离制约把每个描述符投影到一个局部坐标系 中,然后通过投影坐标来生成特征向量. 训练集借助于liblinear线性分类器得到分类 模型后,测试的图像通过分类模型,可计算估计出 该图像所属场景类别,即完成匹配过程. 2实验结果与分析 2.1基于Kyushu数据库的实验验证 Kyushu数据库是在日本九州大学的多个不同 建筑里,通过安置在高125 cm的移动机器人平台 上的Kinect传感器,采集的场景数据库u。。.该数据 库包括RGB图像和深度图像2部分,共有五类场 景,分别是走廊、厨房、实验室、办公室和自习室.每 类场景的光学图像和深度图像都来自不同的场所, 这就增加了场景定位的难度. Kyushu数据库的每个类别各个场景的深度图 像和光学图像的示例,如图3(a)所示,其中的数字 表示各个子场景的图像数量. 对Kyushu数据库的光学图像和深度图像,基 于SIFT特征进行LLC编码,运用三层空间金字塔 结构,采用RGB-D特征融合算法,结合SVM线性 分类器,实现了对场景图像的较为准确的分类.通 过与基于单一特征(如RGB光学特征或Depth深 度特征)的LLC算法实验对比,可以明显地看到, RGB-D特征融合算法在场景分类方面具有显著的 优势. \哥器始 (a)Kyushu数据库 1 2 3 4 5 6 7 8 9 l0 组号 (b)实验结果 图3 Kyushu数据库实验结果 实验中随机选取10组子场景图像作为测试数 据,并将各组的实验结果(即测试集的分类准确 率)取平均值,得到场景的平均分类准确率,如图3 (b)所示.在基于SIFT的RGB—D特征融合算法 下,得到了高达89.1762%的平均准确率,充分验 证了此算法的可行性与高效性. 2.2实时应用系统中的扩展实验 将此算法应用于机器人实时场景定位系统.首 增刊(I) 刘冰,等:光学与深度特征融合在机器人场景定位中的应用 19l 先,通过微软的Kinect摄像机和PowerBot机器人 搭建的平台,在清华大学FIT楼中采集数据,生成 数据库,它涵盖了大楼中的众多场景(见图4).然 后,共选取了1 113对同步的光学和深度图像作为 训练集,测试实时输人的图像.FIT数据库包括车 库、走廊、讨论区、实验室、会议室五大类场景,训练 集与实时系统的2次采集过程相互独立,确保训练 集与测试集的图像互不重复,以此保证了实验结果 的真实有效性. 车库 走廊 讨论区 实验室 会议室 圜囝圈目固 图4 FIT数据库 实时系统输入图像中,加人了大量人、物等动 态和静态干扰因素,从而增加了场景匹配和分类的 难度,进一步考验了算法的鲁棒性和高效性.通过 实时系统的实验结果记录得到,当k最近邻参数为 25时,由SIFT特征融合的场景匹配算法最高可以 获得96.8421%的高准确率.不过,当k最近邻参 数过大时,特征编码就失去了意义,这里将其设定 为5,此时,基于单一光学特征仅能得到91.578 9%的分类准确率,基于单一深度特征则得到85. 864 7%的分类准确率,而基于本文提出的融合算 法,可得到高达96.080 1%的分类准确率,提高了 4.8%,由此验证了算法较高的鲁棒性和较强的稳 定性.实验结果的比较如图5所示. 1O0 Depth 95 RGB RGB—D s 羹83 ,, 71 65 车库 走廊 讨论区实验室会议室总体 场景类别 图5 nT数据库实验结果 3 结语 本文基于计算机图像处理、图像特征匹配、场景 定位等相关理论基础,提出了基于视觉光学与深度 特征融合的场景定位方法,并应用于机器人实时场 景定位系统中,实验结果表明,获得了96.080 1%的 较高分类准确率,充分验证了基于SIFT融合特征 的场景定位算法的高效性和可靠性. 参考文献(References) [1]Siagian C,Itti L.Biologically inspired mobile robot vi— sion localization『J].IEEE Transactions on Robotics, 2009,25(4):861—873. 『2]Choi B S.Lee J J.Sensor network based localization lagorithm using fusion sensor—agent for indoor service robot[J].I眦Trnasactions on Consumer Electronics, 2010,56(3):1457—1465. [3]Rebal K,Azouaoui O,Achour N.Bio—inspired visual memo ̄for robot cognitive map building and scene rec— ognition[C]//Proceedings of皿E/RsJ International Conference on Intelligent Robots and Systems.Vilam— oura,Portugal,2012:2985—2990. [4]Zou Y,Chen W,wu x,et a1.Indoor localization and 3D scene reconstruction for mobile robots using the Mi— crosoft Kinect sensor[C]//Proceedings of the lOth IEEE International Conference on Industrial Informatics. Beijing,China,2012:1182—1187. [5]Maslyuk L L,Ignatenko A,Zhirkov A,et a1.Depth image-based representation and compression for static nad animated 3-D objects『J].ⅢEE Trnasactions on Circuits and Systems for Video Technology,2004,14 (7):1032—1045. [6]Kim S Y,Cho JH,KoschanA,eta1.3D video gener— ation and service based on a TOF depth sensor in M EG-4 multimedia framework『J].Ⅱ}EE Transac. tions on Consumer Electronics,20l0,56(3):1730— 1738. [7]Park S Y,Kim S D.Efifcient depth compression basde on partila surface for 3-D objcet represented by layered depth image[J].IEEE Signal Processing Letters, 2010,17(10):839—842. 1 8 I Lowe D G.Distinctive image features from scale—invari. nat key points[J].International Journal of Computer Vision,20o4,60(2):91一l10. [9]Wang J,Yang J,Yu K,et 1a.Locality-constrained lin- ear coding ofr image classiifcation[C]//proceedings of IEEE Conference on Computer Vision and PaRem Rec— ognition.San Francisco,USA,2010:3360—3367. [10]Mozos 0 M,Mizutnai H,Kurazume R,et 1a.Catego— rization of indoor places using the Kinect sensor[J]. Sensors,2012,12(5):6695—67l1. 

因篇幅问题不能全部显示,请点此查看更多更全内容