基于卷積神經(jīng)網(wǎng)絡(luò)的物體識別研究與實現(xiàn).pdf_第1頁
已閱讀1頁,還剩90頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、物體識別是計算機視覺中的一個研究方向,也是當(dāng)前比較熱門的研究領(lǐng)域。在人們的需求不斷增長的今天,物體識別在安全、科技、經(jīng)濟方面正在起著舉足輕重的作用,安防領(lǐng)域和交通監(jiān)管部門也對物體識別提出了迫切的要求,所以研究物體識別對社會的未來有非常重要的意義。2006年一種新的方法深度神經(jīng)網(wǎng)絡(luò)的出現(xiàn),標(biāo)志著以深度學(xué)習(xí)為新紀(jì)元的時代的到來,卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)方法之一,憑借著優(yōu)秀的性能和無限的潛力成為了競相研究的對象,并且已經(jīng)在圖像識別領(lǐng)域取得巨大

2、的成功。因此,基于卷積神經(jīng)網(wǎng)絡(luò)的物體識別已經(jīng)成為了物體識別領(lǐng)域的一個研究熱點。
  本論文重點闡述了一個改進YOLO的卷積神經(jīng)網(wǎng)絡(luò)模型,改進后網(wǎng)絡(luò)性能得到了較為明顯的提升,具體的工作如下:
  1.改進的模型修改了YOLO網(wǎng)絡(luò)的損失函數(shù)。改進YOLO的模型將比例的形式替換了原有差值的形式。相對于舊的損失函數(shù),新的損失函數(shù)顯得更加靈活,對網(wǎng)絡(luò)誤差的優(yōu)化更合理。
  2.改進的模型在YOLO網(wǎng)絡(luò)中增加了1×1的卷積核。這樣

3、就減少該層的參數(shù)數(shù)量,使網(wǎng)絡(luò)各層提取的特征過渡更加平滑。
  3.改進的模型采用了新的inception結(jié)構(gòu)。因為Inception結(jié)構(gòu)本身就有加深和加寬網(wǎng)絡(luò)的能力,并且在增強網(wǎng)絡(luò)性能的同時,還能減少網(wǎng)絡(luò)參數(shù)的數(shù)量。
  4.改進的模型添加了一層時空金字塔下采樣層,這樣就能更充分地利用原圖像中的信息,增強網(wǎng)絡(luò)的識別性能。另外,由于時空金字塔下采樣層本身具有的優(yōu)勢,使得網(wǎng)絡(luò)在時間性能上也有提高。
  最后,在pascal

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論