深度學習驅(qū)動的場景分析和語義目標解析.pdf_第1頁
已閱讀1頁,還剩87頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、語義目標解析和場景分析是計算機視覺中重要的研究方向,其主要目的是對圖像和視頻中的目標和場景進行分析、理解,在視頻監(jiān)控、自動駕駛、智能交通等方面均有廣泛的應用。語義目標解析涉及對行人、車輛等目標的檢測、識別及分析過程。其中行人細粒度分析是很多計算機視覺應用的基礎,其目的是將行人圖像分割成語義部件,并識別其屬性。場景分析主要包括對場景的深度估計、運動分析以及結(jié)構分析等。場景的深度估計是指從圖像中得到場景的深度信息,有助于恢復場景的三維結(jié)構。

2、場景的運動分析則主要是指從連續(xù)視頻幀中得到光流信息,被用于運動目標的行為識別和異常事件的檢測分類。因此,有效的行人細粒度分析、圖像深度估計和光流估計算法具有重要的現(xiàn)實意義,本文也主要關注這三個任務。近年來,深度學習已在目標檢測、人臉識別、場景標注等計算機視覺任務上取得突破,設計以任務為導向的網(wǎng)絡模型受到學術界和工業(yè)界越來越多的關注。本文將針對行人細粒度分析、單張圖像深度估計和光流估計這三個任務,分別提出不同的基于深度學習的模型。

3、  本研究主要內(nèi)容包括:⑴對于單張圖像深度估計任務,首先回顧了已有的相關方法,然后針對目前基于深度學習的深度估計模型在建??臻g上下文關系上存在的不足,本文分別提出基于數(shù)據(jù)驅(qū)動的上下文特征學習模型和基于全變分模型的損失函數(shù)模型。前者通過數(shù)據(jù)學習和像素位置相關的上下文關系權值將鄰域特征融合到深度值預測,而后者則能夠有效地壓制噪聲并在保留邊緣的同時使結(jié)果更加的平滑。最后本文將這兩種模型融合,得到更有效的方法。⑵在光流估計任務中,相對于傳統(tǒng)的光

4、流估計方法,基于深度學習的方法具有效率高、易擴展的優(yōu)點。然而目前基于深度學習的方法并不多,同時已有的深度模型在大位移光流預測問題上存在不足。提出一種基于多尺度的相關性學習的深度卷積網(wǎng)絡結(jié)構,能夠有效地處理大位移情況。在一些大位移光流數(shù)據(jù)集上,相對于基準算法,本文提出的框架的表現(xiàn)有很明顯的改善。另外,由于預測的結(jié)果含有較多的噪聲和較大的誤差,提出將遞歸神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡相結(jié)合對預測的結(jié)果進一步修正并得到更加精細的結(jié)果。⑶對于行人細粒度

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論