深度學(xué)習(xí)人工智能在無人駕駛上的應(yīng)用_第1頁
深度學(xué)習(xí)人工智能在無人駕駛上的應(yīng)用_第2頁
深度學(xué)習(xí)人工智能在無人駕駛上的應(yīng)用_第3頁
深度學(xué)習(xí)人工智能在無人駕駛上的應(yīng)用_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余1頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、深度學(xué)習(xí)人工智能在無人駕駛上的應(yīng)用摘 要 ? 鏨疃妊 ?習(xí)的概念及深度學(xué)習(xí)人工智能在環(huán)境感知技術(shù)上的應(yīng)用, 詳細(xì)闡述深度學(xué)習(xí)的工作原理以及其應(yīng)用前景。關(guān)鍵詞 人工智能 無人駕駛 環(huán)境感知技術(shù)深度學(xué)習(xí)中圖分類號: TP29 文獻(xiàn)標(biāo)識碼: A機(jī)器深度學(xué)習(xí)是近年來在人工智能領(lǐng)域的重大突破之一,它在語音識別、自然語言處理、計(jì)算機(jī)視覺等領(lǐng)域都取得了不少成功。由于車輛行駛環(huán)境復(fù)雜,當(dāng)前感知技術(shù)在檢測與識別度方面無法滿足無人駕駛發(fā)展需要, 深度學(xué)習(xí)被證明在復(fù)雜環(huán)境感知方面有巨大優(yōu)勢。視覺感知技術(shù)是無人駕駛的核心技術(shù)。無人駕駛一般包括四個等級或者五個等級, 不管哪個等級都會包含環(huán)境感知、規(guī)劃決策和執(zhí)行控制等三

2、個方面。其中環(huán)境感知方式主要有視覺感知、 毫米波雷達(dá)感知和激光雷達(dá)感知,其中的視覺感知是無人駕駛感知的最主要的方式。中國的路況較為復(fù)雜, 雨天、 霧霾天以及下雪天。 另外,像馬車、吊車以及摩托車,還有摩托車?yán)i、卡車?yán)瓨涞默F(xiàn)象在我們生活中經(jīng)常遇到,這些場景對視覺是一個難題,提高這種復(fù)雜路況下的感知精度是無人駕駛研究的挑戰(zhàn)。1 深度學(xué)習(xí)能夠滿足復(fù)雜路況下視覺感知的高精度需求深度學(xué)習(xí)被認(rèn)為是一種有效的解決方案, 深度學(xué)習(xí)是模擬人的大腦,是近10 年來人工智能取得一個較大的突破。深度學(xué)習(xí)在視覺感知中近幾年應(yīng)取得了較大的進(jìn)展, 相對于傳統(tǒng)的計(jì)算機(jī)視覺, 深度學(xué)習(xí)在視覺感知精度方面有比較大的優(yōu)勢。特別是

3、 2011 年以后,有報(bào)導(dǎo)指出深度學(xué)習(xí)如果算法和樣本量足夠的話,其準(zhǔn)確率可以達(dá)到99.9%以上,傳統(tǒng)的視覺算法檢測精度的極限在93%左右。而人的感知,也就是人能看到的準(zhǔn)確率一般為95%,所以從這個方面看,深度學(xué)習(xí)在視覺感知方面是有優(yōu)勢的。所謂深度學(xué)習(xí),又名深度神經(jīng)網(wǎng)絡(luò),相對于以前的神經(jīng)網(wǎng)絡(luò)來說是一種更多層和節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法, 從 這兒可以看出來,其實(shí)深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí),可以說是一種更智能的機(jī)器學(xué)習(xí)。 深度學(xué)習(xí)主要類型一般包括5 種類型,像 CNN RNN LSTM RBMf口 Autoencoder,其中我們主 要的是用的CNN CNM外一個名字叫卷積神經(jīng)網(wǎng)絡(luò)。卷積 神經(jīng)網(wǎng)絡(luò)已經(jīng)

4、被證明在圖像處理中有很好的效果。其中,自學(xué)特征是深度學(xué)習(xí)的最大優(yōu)勢。例如智能駕駛需要識別狗,在以前的算法中如果要識別狗,對狗的特征要用程序來詳細(xì)描述, 深度學(xué)習(xí)這個地方如果采集到足夠的樣本,然后放在深度學(xué)習(xí)中訓(xùn)練,訓(xùn)練出來后的系統(tǒng)就可以識別這個狗。傳統(tǒng)的計(jì)算機(jī)的視覺算法需要手工提取特征,很多時候需要專家的知識,算法的魯棒性設(shè)計(jì)非常困難,很難保證魯棒性,我們做視覺感知的時候就遇到很多困難。另外如果要保證這個穩(wěn)定需要大量的調(diào)試,非常耗時。深度學(xué)習(xí)一般包括四種類型的神經(jīng)網(wǎng)絡(luò)層,輸入層、卷積層、池化層、輸出層。網(wǎng)絡(luò)的結(jié)構(gòu)可以 10 層甚至上百層,一般層數(shù)越多檢測精度會更精準(zhǔn)。 并且隨著網(wǎng)絡(luò)層數(shù)和節(jié)點(diǎn)數(shù)

5、的增加,可以表達(dá)更細(xì)、更多的識別物的特征,這樣的話可以為檢測精度的提高打下基礎(chǔ)。其中卷積層和池化層是深度學(xué)習(xí)的核心處理層。 卷積層主要是用于負(fù)責(zé)物體特征的提?。怀鼗瘜又饕秦?fù)責(zé)采樣。比如簡單理解池化層, (就是一個數(shù)獨(dú)里面取一個最大值) ,這就是池化層。卷積層與池化層是深度學(xué)習(xí)兩個核心的層。深度學(xué)習(xí)工作的原理,深度學(xué)習(xí)一般包括兩個方面,一個是訓(xùn)練,一個是檢測,訓(xùn)練一般主要是離線進(jìn)行,就是把采集到的樣本輸入到訓(xùn)練的網(wǎng)絡(luò)中。訓(xùn)練網(wǎng)絡(luò)進(jìn)行前向輸出,然后利用標(biāo)定信息進(jìn)行反饋,最后訓(xùn)練出模型,這個模型導(dǎo)入到檢測的網(wǎng)絡(luò)中, 檢測網(wǎng)絡(luò)就可以對輸入的視頻和圖像進(jìn)行檢測和識別。通常情況下,樣本的數(shù)量越多,識別的

6、精度一般也會越高, 所以這個樣本的數(shù)量是影響深度學(xué)習(xí)精度重要的一個因素。2 深度學(xué)習(xí)在無人駕駛感知上應(yīng)用前景廣闊一般的環(huán)境感知方面用到的深度學(xué)習(xí)會多一些, 主要是視覺與毫米波雷達(dá)方面。在駕駛策略里面也會用到機(jī)器學(xué)習(xí),但是我們一般叫做增強(qiáng)學(xué)習(xí),用于駕駛策略的研究。在環(huán)境感知方面,深度學(xué)習(xí)可以在視覺感知、激光雷達(dá)感知,還有駕駛員狀態(tài)監(jiān)測等方面, 甚至在攝像頭和毫米波雷達(dá)融合方面都具有優(yōu)勢。在環(huán)境感知方面, 我們在這方面做的重要工作就是前向視覺感知應(yīng)用。 大家知道前向視覺感知是作為無人駕駛很重要的一部分,我們嘗試深度學(xué)習(xí)在這方面一些應(yīng)用。主要采用了單目攝像頭的方案,選用的模型是Faster R-CNN ,在GPUTITAN 平臺上運(yùn)行。 目標(biāo)檢測物主要包括車道線、 車輛、行人、交通標(biāo)識和自行車,目前車輛的樣本有3 萬左右,行人樣本大概2萬左右,其他的樣本較少,大概 1000-2000。從運(yùn)行效果來看,識別精度、識別類型較以前開發(fā)的一些傳統(tǒng)的視覺算法,我們覺得有比較大的改善。3 結(jié)論深度學(xué)習(xí)人工智能給車主提供了更人性化、 更智能化的功能,將給車主行車帶來極大的便利。但人工智能技術(shù)帶來的挑戰(zhàn)也不可小覷。 需要汽車行業(yè)的及互聯(lián)網(wǎng)行業(yè)的人才一起努力,創(chuàng)建和諧的互聯(lián)網(wǎng)環(huán)境。參考文

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論