2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩126頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、隨著人工智能的發(fā)展,越來越多的智能設(shè)備如機器人能夠在各種場景代替人類工作。在安防領(lǐng)域,很多場景需要安防人員進行巡邏,其中存在工作量大、危險性高等問題。這類情況下,使用機器人或無人車進行巡邏無疑將是更好的選擇。因此,研究自主巡邏的機器人或無人車一直是人工智能領(lǐng)域的一大研究熱點。視頻導(dǎo)航,作為自主巡邏中的一種有效且常用的導(dǎo)航方法,是當(dāng)前研究的一大熱點。本文將針對視頻導(dǎo)航中存在的若干問題展開研究,主要有:室內(nèi)導(dǎo)航中的地圖建立與自我定位、室外導(dǎo)

2、航中的障礙物檢測以及導(dǎo)航過程中可疑行人人臉的檢測與識別等。本研究主要內(nèi)容包括:
 ?、裴槍κ覂?nèi)導(dǎo)航常用的設(shè)定路標(biāo)和導(dǎo)軌方法難于實施,適應(yīng)能力不強的問題,提出了一種快速易實施的基于引導(dǎo)人地圖生成與自然路標(biāo)選取的室內(nèi)導(dǎo)航方法。該方法利用視頻幀差法以及顏色信息,檢測出引導(dǎo)人所在的位置,跟隨引導(dǎo)人行走并記錄路徑,同時在行走過程中記錄自然場景作為路標(biāo),從而形成拓撲地圖,地圖建立后可以在此基礎(chǔ)上實現(xiàn)自主巡邏。由于不需要提前設(shè)定路標(biāo)和導(dǎo)軌,所以

3、易于實施,適應(yīng)性強。實驗結(jié)果表明,該方法在會議室、辦公室以及實驗室等復(fù)雜環(huán)境下平均導(dǎo)航成功率能夠達到91.5%。
 ?、漆槍κ彝鈱?dǎo)航中障礙物檢測中難以區(qū)分障礙物與道路陰影和標(biāo)志線的問題,提出了一種基于兩幀間的幾何投影模型的TCF障礙物檢測方法。該方法不需要提前對攝像機進行人工標(biāo)定以及其他先驗知識,利用點在圖像平面上投影的位置信息,通過兩連續(xù)幀間的對應(yīng)點的位置變化,來推斷其在實際坐標(biāo)中的高度信息,并利用高度信息區(qū)分真實障礙物和道路陰

4、影、標(biāo)志線。利用特征點的檢測匹配,來計算特征點的高度信息,從而達到實時性要求。同時,為了提高檢測準(zhǔn)確率,本文還使用了置信濾波器來降低噪聲的影響。最后,通過一種權(quán)值平均的方法來實現(xiàn)狀態(tài)的更新,并在更新的同時再一步降低噪聲、提高準(zhǔn)確率。本文方法在障礙物檢測上比常見的基于表征信息以及光流法等算法略高,特別是在區(qū)分障礙物與道路陰影和標(biāo)志線方面,本文算法能夠達到90%以上的準(zhǔn)確率,遠遠超過其他算法。
 ?、轻槍CF方法對遠處障礙物的高度難

5、以估計的問題,提出了一種基于攝像機自運動消除和幀差法相結(jié)合的遠距離運動障礙物檢測方法。該方法從圖像中提取運動信息,對攝像機自運動進行消除,然后再利用幀差法檢測遠處運動障礙物。同時,利用一種最小邊界分割方法將障礙物區(qū)域進行分割,能夠獲得障礙物區(qū)域的置信度,從而判斷障礙物的概率以及相對運動方向。實驗結(jié)果表明,該方法對遠距離運動障礙物檢測能夠達到90%以上的精確率與召回率。
  ⑷針對利用運動信息進行障礙物檢測時容易受特征點檢測結(jié)果影響

6、而造成檢測誤差的問題,提出了一種基于單幅圖像表征信息的深度學(xué)習(xí)障礙物檢測方法。該方法將圖像分塊,并利用深度網(wǎng)絡(luò)對候選塊進行分類,從而將圖像中的障礙物區(qū)域分離出來。在深度網(wǎng)絡(luò)的學(xué)習(xí)過程中,考慮到候選塊只具有局部信息,該方法利用局部信息與整幅圖像的全局信息相融合的方式組成深度神經(jīng)網(wǎng)絡(luò)。實驗結(jié)果表明,該方法比其他常見方法在準(zhǔn)確率和召回率提升1%~15%,對于障礙物檢測,在DUSSB數(shù)據(jù)集以及本文的視頻導(dǎo)航實驗中,最重要的召回率指標(biāo)能夠達98%

7、。
 ?、舍槍鹘y(tǒng)方法對導(dǎo)航視頻人臉檢測效果較差的情況,提出了一種基于人體分塊模型的人臉檢測方法。該方法受到行人檢測的人體分塊模型的啟發(fā),考慮到巡邏視頻中行人的人臉與身體其他部位一般會被同時捕捉到的情況,按照人體分塊模型,利用深度網(wǎng)絡(luò),學(xué)習(xí)到一個適用于巡邏視頻人臉檢測的分塊深度模型。實驗結(jié)果表明,該方法相對于著名的Viola-Jones方法,準(zhǔn)確率和召回率都有7%~47%的非常明顯的提高。對于相對重要的召回率指標(biāo),在NICTA數(shù)據(jù)

8、集上能夠達到67.56%,在本文的視頻導(dǎo)航實驗中能夠達到80.87%。
 ?、梳槍嶋H應(yīng)用中需要快速準(zhǔn)確地分析海量視頻數(shù)據(jù),本文基于一種“海云協(xié)同”架構(gòu)開展了相關(guān)研究,提出了一種局部與全局兩種模型結(jié)合的深度網(wǎng)絡(luò)學(xué)習(xí)方法,并用于巡邏過程中的行人人臉識別。該方法利用深度網(wǎng)絡(luò)在海端學(xué)習(xí)得到局部模型,而云端通過海端上傳的局部模型以及少量的數(shù)據(jù),重新整合調(diào)優(yōu),得到到準(zhǔn)確度更高的全局模型。經(jīng)過整合后的云端全局模型,只利用少量數(shù)據(jù)便可以達到用所

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論