無(wú)人車(chē)自主定位和障礙物感知的視覺(jué)主導(dǎo)多傳感器融合方法(英文)
本文選題:視覺(jué)感知 + 自主定位; 參考:《Frontiers of Information Technology & Electronic Engineering》2017年01期
【摘要】:人類(lèi)駕駛與自主駕駛在對(duì)交通環(huán)境的理解方式上有著明顯差別。首先,人主要通過(guò)視覺(jué)來(lái)理解交通場(chǎng)景,而機(jī)器感知需要融合多種異構(gòu)的傳感信息才能保證行車(chē)安全。其次,一個(gè)熟練的駕駛員可以輕松適應(yīng)各種動(dòng)態(tài)交通環(huán)境,但現(xiàn)有的機(jī)器感知系統(tǒng)卻會(huì)經(jīng)常輸出有噪聲的感知結(jié)果,而自主駕駛要求感知結(jié)果近乎100%準(zhǔn)確。本文提出了一種用于無(wú)人車(chē)交通環(huán)境感知的視覺(jué)主導(dǎo)的多傳感器融合計(jì)算框架,通過(guò)幾何和語(yǔ)義約束融合來(lái)自相機(jī)、激光雷達(dá)(LIDAR)及地理信息系統(tǒng)(GIS)的信息,為無(wú)人車(chē)提供高精度的自主定位和準(zhǔn)確魯棒的障礙物感知,并進(jìn)一步討論了已成功集成到上述框架內(nèi)的魯棒的視覺(jué)算法,主要包括從訓(xùn)練數(shù)據(jù)收集、傳感器數(shù)據(jù)處理、低級(jí)特征提取到障礙物識(shí)別和環(huán)境地圖創(chuàng)建等多個(gè)層次的視覺(jué)算法。所提出的框架里已用于自主研發(fā)的無(wú)人車(chē),并在各種真實(shí)城區(qū)環(huán)境中進(jìn)行了長(zhǎng)達(dá)八年的實(shí)地測(cè)試,實(shí)驗(yàn)結(jié)果驗(yàn)證了視覺(jué)主導(dǎo)的多傳感融合感知框架的魯棒性和高效性。
[Abstract]:There are obvious differences between human driving and autonomous driving in understanding the traffic environment. Firstly, people mainly understand traffic scenes through vision, and machine perception needs to fuse various heterogeneous sensing information to ensure traffic safety. Secondly, a skilled driver can easily adapt to a variety of dynamic traffic environments, but the existing machine sensing system often outputs noisy results, and autonomous driving requires that the sensing results are nearly 100% accurate. In this paper, a visual dominant multi-sensor fusion computing framework for traffic environment perception of unmanned vehicles is proposed. The information from camera, lidar and GIS is fused by geometric and semantic constraints. This paper provides high precision autonomous positioning and accurate robust obstacle sensing for unmanned vehicles, and further discusses the robust visual algorithms which have been successfully integrated into the above framework, mainly including training data collection, sensor data processing, and so on. Low-level feature extraction to obstacle recognition and environment map creation and other multi-level visual algorithms. The proposed framework has been used for self-developed unmanned vehicles and has been tested in various real urban environments for up to eight years. The experimental results verify the robustness and efficiency of the vision-led multi-sensor fusion sensing framework.
【作者單位】: Lab
【基金】:supported by the National Key Program Project of China(No.2016YFB1001004) the National Natural Science Foundation of China(Nos.91320301 and 61273252)
【分類(lèi)號(hào)】:TP391.41;TP212
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 戴蕭嫣;韓焱;;基于頻分模式的水聲自主定位[J];微計(jì)算機(jī)信息;2008年01期
2 洪炳昒,羅榮華;一種魯棒移動(dòng)機(jī)器人自主定位方法[J];哈爾濱工業(yè)大學(xué)學(xué)報(bào);2003年09期
3 彭蘭;;一種深海采礦車(chē)自主定位系統(tǒng)研究[J];現(xiàn)代制造工程;2009年04期
4 馬獻(xiàn)德;陳強(qiáng);孫振國(guó);張文增;;具有自主定位功能的水輪機(jī)葉片坑內(nèi)修焊機(jī)器人[J];焊接學(xué)報(bào);2012年08期
5 付燕;董緒榮;;基于星間相對(duì)測(cè)距的衛(wèi)星自主定位[J];全球定位系統(tǒng);2005年06期
6 鄭潤(rùn)芳;張海;;STM32的小車(chē)自主定位與控制系統(tǒng)設(shè)計(jì)[J];單片機(jī)與嵌入式系統(tǒng)應(yīng)用;2013年09期
7 張磊;蔣剛;肖志峰;葉登金;;MEMS陀螺與編碼器在機(jī)器人自主定位中的應(yīng)用[J];機(jī)械設(shè)計(jì)與制造;2011年09期
8 蔣惠萍;楊國(guó)勝;;全景圖像拼接的網(wǎng)絡(luò)化感知節(jié)點(diǎn)自主定位系統(tǒng)[J];計(jì)算機(jī)工程與應(yīng)用;2012年08期
9 方新秋;何杰;張斌;郭敏江;;無(wú)人工作面采煤機(jī)自主定位系統(tǒng)[J];西安科技大學(xué)學(xué)報(bào);2008年02期
10 ;[J];;年期
相關(guān)會(huì)議論文 前2條
1 曾慶化;Andrew H.Kemp;劉建業(yè);;集裝箱實(shí)時(shí)自主定位系統(tǒng)(RIPS)可行性研究(英文)[A];2009年中國(guó)智能自動(dòng)化會(huì)議論文集(第二分冊(cè))[C];2009年
2 陳正捷;古叢;熊金洲;;應(yīng)用UWB技術(shù)實(shí)現(xiàn)區(qū)域自主定位初探[A];全國(guó)第一屆信號(hào)處理學(xué)術(shù)會(huì)議暨中國(guó)高科技產(chǎn)業(yè)化研究會(huì)信號(hào)處理分會(huì)籌備工作委員會(huì)第三次工作會(huì)議專(zhuān)刊[C];2007年
相關(guān)重要報(bào)紙文章 前2條
1 姚強(qiáng);GPS“2.0版”:自主定位180天[N];中國(guó)航天報(bào);2014年
2 本報(bào)記者 溫維健;在哪兒都能找到你[N];中國(guó)紡織報(bào);2013年
相關(guān)碩士學(xué)位論文 前9條
1 羅彬;基于運(yùn)動(dòng)傳感器的人員自主定位技術(shù)研究[D];上海交通大學(xué);2015年
2 馬明;基于可佩帶傳感器的人員自主定位技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年
3 韓同輝;大型運(yùn)載車(chē)平臺(tái)自主定位關(guān)鍵技術(shù)研究[D];上海交通大學(xué);2012年
4 劉e,
本文編號(hào):2043082
本文鏈接:http://www.wukwdryxk.cn/kejilunwen/zidonghuakongzhilunwen/2043082.html