技術(shù)頻道

娓娓工業(yè)
您現(xiàn)在的位置: 中國傳動(dòng)網(wǎng) > 技術(shù)頻道 > 技術(shù)百科 > 基于深度視覺的移動(dòng)機(jī)器人自定位研究

基于深度視覺的移動(dòng)機(jī)器人自定位研究

時(shí)間:2015-10-30 17:16:49來源:郭彤穎 陳策

導(dǎo)語:?本文構(gòu)建了一種基于Kinect深度視覺傳感器和超聲波的室內(nèi)定位系統(tǒng),對三邊定位算法進(jìn)行了改進(jìn)與完善。移動(dòng)機(jī)器人可以通過自身傳感器對人工信標(biāo)的感知、分析,精確的得到自己的位置信息。

摘要:自定位是移動(dòng)機(jī)器人在完成路徑規(guī)劃、自主導(dǎo)航等行為的基礎(chǔ)。它的解決是移動(dòng)機(jī)器人完成任務(wù)的前提。本文構(gòu)建了一種基于Kinect深度視覺傳感器和超聲波的室內(nèi)定位系統(tǒng),對三邊定位算法進(jìn)行了改進(jìn)與完善。移動(dòng)機(jī)器人可以通過自身傳感器對人工信標(biāo)的感知、分析,精確的得到自己的位置信息,

關(guān)鍵詞:移動(dòng)機(jī)器人,自定位,kinect傳感器,信標(biāo);

1引言

由于移動(dòng)機(jī)器人在軍事、航天、工業(yè)等諸多領(lǐng)域以及日常生活中越來越廣泛的應(yīng)用,人們對機(jī)器人的智能程度要求越來越高,機(jī)器人被應(yīng)用到各種人類不能執(zhí)行或難以執(zhí)行的任務(wù)、“苦力工作”或重復(fù)性的工作等。移動(dòng)機(jī)器人只有知道自己在哪里,以及如何從一個(gè)位置到達(dá)另一位置后,才能夠有目的運(yùn)動(dòng),從而有效地完成特定的任務(wù)。這個(gè)過程也被形象的稱作導(dǎo)航問題:“我在哪里?(Where am I?)”、“我要去哪里?(Where do I want to go?)”、“我如何到達(dá)該處?(How do I get there?)”。機(jī)器人自定位問題是需要解決的第一個(gè)問題,它的解決是其他兩個(gè)問題得以解決的關(guān)鍵和基礎(chǔ)。

基于信標(biāo)的定位系統(tǒng)依賴于一系列環(huán)境中已知特征的信標(biāo),通過安裝在移動(dòng)機(jī)器人上的傳感器對信標(biāo)進(jìn)行觀測??捎糜谟^測路標(biāo)的傳感器有很多種,包括超聲波傳感器、激光傳感器、視覺傳感器等,信標(biāo)定位方式主要有三邊測量、三角測量和場景分析等[1]。合肥工業(yè)大學(xué)的學(xué)生提出基于Zigbee的超聲波室內(nèi)定位系統(tǒng),在該系統(tǒng)中,超聲波發(fā)射器和Zigbee無線模塊安裝在移動(dòng)機(jī)器人上,在天花板上以一定間隔安裝超聲波接收模塊,且作為信標(biāo)的接收模塊的全局坐標(biāo)已知。通過獲取接收模塊與發(fā)射器之間的距離利用三邊定位原理對機(jī)器人本體進(jìn)行定位。這種定位方式可以達(dá)到很好的定位效果,可是定位區(qū)域需要安裝大量的接收模塊,增加了定位系統(tǒng)的成本,對安裝及維護(hù)造成極大的不便。哈爾濱工業(yè)大學(xué)的學(xué)生針對超聲波網(wǎng)絡(luò)需要鋪設(shè)大量硬件設(shè)施的問題,研究一種稀疏超聲波網(wǎng)絡(luò)下的室內(nèi)機(jī)器人定位方法,但是這種定位方法需要確定機(jī)器人的初始位姿,在定位過程中需要大量時(shí)間。

本文提出基于Kinect深度視覺傳感器的定位方法,設(shè)計(jì)了便于識(shí)別的人工信標(biāo),通過邊緣檢測等方法對信標(biāo)進(jìn)行配準(zhǔn)、識(shí)別,然后應(yīng)用Kinect視覺傳感器對機(jī)器人本體到信標(biāo)的距離進(jìn)行精確測量,最后應(yīng)用改進(jìn)的三邊定位原理實(shí)現(xiàn)移動(dòng)機(jī)器人的自定位。

2 機(jī)器人硬件系統(tǒng)

MobileRobots的先鋒機(jī)器人比大多數(shù)機(jī)器人小,但是它內(nèi)部高度集成了智能移動(dòng)機(jī)器人技術(shù),而它的能力完全可以與那些體積笨重價(jià)格昂貴的設(shè)備相匹敵,本文使用的移動(dòng)機(jī)器人為MobileRobots公司設(shè)計(jì)生產(chǎn)的Pioneer3-DX型機(jī)器人,該型機(jī)器人配備隨車的PC計(jì)算機(jī),使其成為一個(gè)完全自治的智能移動(dòng)機(jī)器人系統(tǒng)。

2.1 聲納環(huán)

Pioneer3-DX機(jī)型上的聲納環(huán)位置是固定的:兩側(cè)各有一個(gè),另外6個(gè)以20度間隔分布在前后側(cè)邊。這種聲納陣的布置可以為機(jī)器人提供360度無縫檢測。如圖1所示。

圖1 Pioneer3聲納環(huán)

基于ARCOS的MobileRobots機(jī)器人最多可以支持4個(gè)聲納環(huán),每個(gè)環(huán)最多有8個(gè)換能器,使用聲納客戶端命令可以起動(dòng)或者關(guān)閉全體或者單個(gè)的聲納陣列。命令串參數(shù)由一系列1到32的聲納數(shù)組成。1到8的聲納數(shù)與聲納陣列1的輪循次序相對應(yīng)。9到16的聲納數(shù)與聲納陣列2的輪循次序相對應(yīng);17-24規(guī)定了聲納陣列3的次序;25-32規(guī)定了聲納陣列4的次序。每一次輪循中每一個(gè)聲納可以重復(fù)兩次或者更多次。如果一個(gè)聲納數(shù)沒有出現(xiàn)在其他已經(jīng)改變的順序中,該聲納環(huán)不會(huì)被起動(dòng)。

2.1 Kinect

Kinect傳感器是由微軟公司于2010年6月發(fā)布的具備RGB彩色相機(jī)、紅外線發(fā)射器、紅外線CMOS攝像頭的深度視覺傳感器。可用于測量空間三維點(diǎn)數(shù)據(jù),RGB 彩色攝像頭,負(fù)責(zé)彩色信息捕捉,紅外線發(fā)射器、紅外線 CMOS 攝像頭相結(jié)合構(gòu)成了三維結(jié)構(gòu)光深度傳感器,負(fù)責(zé)深度圖像的捕捉[2]。

Kinect的測距使用的是光編碼技術(shù)(Light coding),即使用光源給待測量的空間進(jìn)行編碼,,Kinect使用的光源叫做激光散斑,是激光照射到粗糙物體或穿透毛玻璃后形成的隨即衍射斑點(diǎn)。這些散斑具有高度的隨機(jī)性,而且會(huì)隨著距離的不同而變換圖案,也就是說空間中任意兩處的散斑圖案都是不同的[3]。只要在空間中打上這樣的結(jié)構(gòu)光,整個(gè)空間就都被做了標(biāo)記,把一個(gè)物體放進(jìn)這個(gè)空間,只要看看物體上面的散斑圖案,就可以知道這個(gè)物體在什么位置了,當(dāng)然,在這之前要把整個(gè)空間的散斑圖案都記錄下來,所以要先做一次光源的標(biāo)定,在PrimeSense的專利上,標(biāo)定的方法是這樣的[4],每隔一段距離,取一個(gè)參考平面,把參考平面上的散斑圖案記錄下來。假設(shè)規(guī)定的用戶活動(dòng)空間是距離電視機(jī)1米到4米的范圍,每隔10cm取一個(gè)參考平面,那么標(biāo)定下來我們就已經(jīng)保存了 30幅散斑圖像,需要進(jìn)行測量的時(shí)候,拍攝一副待測場景的散斑圖像,將這幅圖像和我們保存下來的30幅參考圖像依次做互相關(guān)運(yùn)算,這樣我們會(huì)得到30幅相關(guān)度圖像,而空間中有物體存在的位置,在相關(guān)度圖像上就會(huì)顯示距離值。

圖2 Kinect外觀圖

本文在Pioneer3-DX型機(jī)器人上安裝云臺(tái),將Kinect深度視覺傳感器置于云臺(tái)之上,通過設(shè)置控制系統(tǒng),可實(shí)現(xiàn)Kinect視覺傳感器對周圍環(huán)境的360度檢測。具體的定位思想可用如下流程圖3所示。通過邊緣檢測、圖像配準(zhǔn)等方法對人工信標(biāo)進(jìn)行識(shí)別,具體的方法可以參考論文《《基于sobel算子的邊緣檢測算法研究》》,本文只對確定人工信標(biāo)之后的定位部分進(jìn)行論證。

圖3 機(jī)器人自定位流程圖

3改進(jìn)三邊定位法

傳統(tǒng)三邊定位法如圖4所示。A、B、C三個(gè)點(diǎn)的坐標(biāo)是已知的,假設(shè)分別為

圖4 三邊定位原理示意圖

在沒有誤差的情況下,式3-1方程組有唯一的解,即在水平面上的投影的圓有唯一的交點(diǎn),但是在實(shí)際測量中,誤差是不可避免的,三個(gè)圓并不能相交于同一點(diǎn),而是形成一個(gè)區(qū)域[6]。如圖5所示。

圖5 測量誤差形成區(qū)域

從求解三邊測量法方程的過程中我們可以發(fā)現(xiàn),如果方程組沒有相交于一點(diǎn),則三邊測量法求得待測節(jié)點(diǎn)的坐標(biāo)為兩條直線的交點(diǎn),這兩條直線分別為過圓B與圓A的交點(diǎn)的直線L1和過圓A與圓C的交點(diǎn)的直線L2,三邊測量法的解法并沒有完全利用已知的3個(gè)節(jié)點(diǎn)的坐標(biāo)值,而是根據(jù)2條直線的交點(diǎn)來計(jì)算待測節(jié)點(diǎn)的位置,這樣計(jì)算出的坐標(biāo)會(huì)存在比較大的誤差[7]。如圖6所示。

圖6 誤差情況下的三邊定位算法

為了使計(jì)算出的移動(dòng)節(jié)點(diǎn)的坐標(biāo)更精確,在測量有誤差的情況下,前人提出用三個(gè)圓圍成的區(qū)域的質(zhì)心來計(jì)算待測節(jié)點(diǎn)的位置[8]。將 3-1方程組中的方程表示為如下函數(shù):

本文采用上述算法進(jìn)行了多次的獨(dú)立實(shí)驗(yàn),獲取了較為豐富的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)數(shù)據(jù)顯示:在多數(shù)情況下,上述方法可以準(zhǔn)確的對機(jī)器人實(shí)現(xiàn)自定位,但是仍然存在定位點(diǎn)與實(shí)際機(jī)器人位置相差甚遠(yuǎn)的情況,筆者篩選出一組有代表性的數(shù)據(jù)進(jìn)行論證說明,并且提出了解決這個(gè)問題的方法,對上述算法進(jìn)行了完善。、

4實(shí)驗(yàn)與仿真

本文選取路標(biāo)位置隨機(jī)記錄了十組機(jī)器人的準(zhǔn)確位置分別為1(180,80,45)2(200,60,45)3(220,70,45)

4(240,80,45)5(260,90,45)6(280,100,45)

7(300,110,45)8(320,120,45)9(340,130,45)

10(360,140,45)(單位:cm),以及應(yīng)用Kinect傳感器測得在該位置到以上三個(gè)路標(biāo)的距離信息分別為如表1所示,應(yīng)用上文提到的改進(jìn)三邊定位算法對機(jī)器人實(shí)現(xiàn)自定位,并且將自定位得到的機(jī)器人坐標(biāo)位置與之間記錄的機(jī)器人實(shí)際位置進(jìn)行仿真對比,驗(yàn)證本文的定位效果。

表1 數(shù)據(jù)信息

在進(jìn)行仿真實(shí)驗(yàn)過程中,筆者發(fā)現(xiàn)隨著機(jī)器人到路標(biāo)之間距離測量誤差的增大,的確存在三個(gè)圓不能交于一點(diǎn)的情況,但是卻不能完全滿足時(shí),就能夠得到所需點(diǎn)的要求。如圖7所示。

圖7 matlab仿真圖

在實(shí)際應(yīng)用過程中,可將兩種方法進(jìn)行融合,針對不同的路標(biāo)位置,采用相應(yīng)的改進(jìn)方法,以實(shí)現(xiàn)機(jī)器人的精確定位。圖8為采用本文的融合算法對機(jī)器人的自定位仿真圖。

圖8機(jī)器人定位對比圖

上圖中藍(lán)色曲線為機(jī)器人實(shí)際位置,紅色曲線為應(yīng)用本文融合算法得到的機(jī)器人自定位位置,從仿真圖像中我們可以清晰的看到,應(yīng)用本文算法的機(jī)器人自定位效果明顯,定位精度高,誤差在2cm之間,可以應(yīng)用于室內(nèi)結(jié)構(gòu)化環(huán)境中,可以準(zhǔn)確的實(shí)現(xiàn)機(jī)器人的自定位。

5結(jié)論

本文構(gòu)建了一種基于Kinect深度視覺傳感器的室內(nèi)定位系統(tǒng),對三邊定位算法進(jìn)行了改進(jìn)與完善。移動(dòng)機(jī)器人可以通過自身傳感器對人工信標(biāo)的感知、分析,精確的得到自己的位置信息,并且通過Matlab仿真實(shí)驗(yàn),驗(yàn)證了本文的算法定位的高精度、可以準(zhǔn)確的實(shí)現(xiàn)機(jī)器人的自定位。

參考文獻(xiàn)

[1]孫利民,李建中,陳 渝. 無線傳感器網(wǎng)絡(luò)[M]. 北京:清華大學(xué)出版社,2005,140

[2]閔華松,楊 杰. 融合 IMU 和 Kinect 的機(jī)器人定位算法的研究[D]. 武漢:武漢科技大學(xué),2014,5

[3]夏路易,賀 超. 基于Kinect的移動(dòng)機(jī)器人同時(shí)目標(biāo)跟蹤與避障[D]. 太原:太原理工大學(xué),2013,5

[4]徐向民,李輝憲,葉日藏. 基于Kinect深度傳感器的三維重建技術(shù)應(yīng)用研究[D]. 廣州;華南理工大學(xué),2013,10

[5]孫寶江,徐 躍. 基于超聲波測距的機(jī)器人定位與避障[D]. 濟(jì)南: 齊魯工業(yè)大學(xué),2013,5

[6]張樹剛. 基于超聲波的移動(dòng)機(jī)器人局部避障算法及應(yīng)用[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2013,12

[7] 盧惠民,張 輝,鄭志強(qiáng). 基于視覺的移動(dòng)機(jī)器人自定位問題[J]. 中南大學(xué)學(xué)報(bào)(自然科學(xué)版),2009,9第40卷增刊,128—129

[8]周 倫. 室內(nèi)移動(dòng)機(jī)器人超聲波網(wǎng)絡(luò)定位方法研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué),2013,7

[9Ibraheem M. Gyroscope-enhanced dead reckoning localization system for an intelligent walker[C]//Information Networking and Automation (ICINA), 2010 International Conference on. IEEE, 2010, 1: V1-67-V1-72.]

[10] Cho B S, Moon W, Seo W J, et al. A dead reckoning localization system for mobile robots using inertial sensors and wheel revolution encoding[J]. Journal of mechanical science and technology, 2011, 25(11): 2907-2917.

作者簡介:

郭彤穎(1974-),女,副教授,碩士生導(dǎo)師

陳 策(1990-),男,控制工程專業(yè)碩士研究生

標(biāo)簽:

點(diǎn)贊

分享到:

上一篇:機(jī)械臂阻抗控制與仿真研究

下一篇:判斷車牌識(shí)別停車場系統(tǒng)性能...

中國傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:凡本網(wǎng)注明[來源:中國傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動(dòng)網(wǎng)(m.u63ivq3.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

相關(guān)資訊

網(wǎng)站簡介|會(huì)員服務(wù)|聯(lián)系方式|幫助信息|版權(quán)信息|網(wǎng)站地圖|友情鏈接|法律支持|意見反饋|sitemap

傳動(dòng)網(wǎng)-工業(yè)自動(dòng)化與智能制造的全媒體“互聯(lián)網(wǎng)+”創(chuàng)新服務(wù)平臺(tái)

網(wǎng)站客服服務(wù)咨詢采購咨詢媒體合作

Chuandong.com Copyright ?2005 - 2024 ,All Rights Reserved 深圳市奧美大唐廣告有限公司 版權(quán)所有
粵ICP備 14004826號(hào) | 營業(yè)執(zhí)照證書 | 不良信息舉報(bào)中心 | 粵公網(wǎng)安備 44030402000946號(hào)