版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著攝像機(jī)和智能手機(jī)的普及,在網(wǎng)上出現(xiàn)了爆炸式指數(shù)增長(zhǎng)的視頻,這些大量無(wú)組織的網(wǎng)上視頻內(nèi)容無(wú)疑會(huì)降低用戶的體驗(yàn)度。因?yàn)橐氩榭聪嚓P(guān)視頻并抓住視頻內(nèi)容里面的主旨是要消耗很多時(shí)間并且乏味的,所以我們迫切需要提供一個(gè)高效且符合用戶的方法去組織和瀏覽這些大量的視頻數(shù)據(jù)。我們引進(jìn)了視頻總結(jié)和標(biāo)題生成的方法來(lái)滿足上面的需求。我們的框架包括兩部分:一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的編碼網(wǎng)絡(luò)和一個(gè)基于注意力機(jī)制的長(zhǎng)短時(shí)間記憶神經(jīng)網(wǎng)絡(luò)(LSTM)作為解
2、碼網(wǎng)絡(luò)。在編碼網(wǎng)絡(luò)中,我們首先提取關(guān)鍵幀來(lái)表示整個(gè)視頻內(nèi)容,然后將關(guān)鍵幀輸入到編碼網(wǎng)絡(luò)提取視頻特征。在解碼網(wǎng)絡(luò)中,我們引進(jìn)能避免梯度消失的LSTM網(wǎng)絡(luò)產(chǎn)生描述視頻內(nèi)容的語(yǔ)義性句子。
視頻內(nèi)容總結(jié)是產(chǎn)生一個(gè)即對(duì)用戶感興趣又具有代表性的壓縮版視頻,視頻內(nèi)容總結(jié)可以分為:關(guān)鍵幀(由一系列具有代表性的圖片組成)和片段(由一系列具有代表性的片段組成)。一個(gè)好的視頻總結(jié)至少具有兩個(gè)特性:1)包括視頻中最感興趣的部分,2)保持多樣性去除冗余
3、度。為了完成視頻總結(jié),我們首先利用視頻的顯著線索和動(dòng)作線索得到穩(wěn)定的顯著權(quán)重和動(dòng)作差別權(quán)重,然后用我們提出的選擇模型提取滿足用戶的關(guān)鍵信息。我們提出一個(gè)獨(dú)特的框架,結(jié)合這些權(quán)重預(yù)測(cè)每一幀的重要程度,重要的幀作為關(guān)鍵幀。我們的方法不需要通過(guò)訓(xùn)練來(lái)學(xué)習(xí)重要標(biāo)準(zhǔn)且能夠預(yù)測(cè)之前未看過(guò)的視頻。
最近基于注意力機(jī)制的編碼-解碼框架的視頻標(biāo)題生成已經(jīng)取得進(jìn)展。然而還存在諸多問(wèn)題:1)許多已經(jīng)存在的解碼方法,只考慮視頻序列的動(dòng)態(tài)時(shí)間注意力信息
4、到自然語(yǔ)言過(guò)程的建模,而忽略視頻內(nèi)容和句子語(yǔ)義信息之間的關(guān)系。為了強(qiáng)調(diào)這個(gè)問(wèn)題,我們提出了一個(gè)基于時(shí)間注意力機(jī)制的LSTM模型并結(jié)合語(yǔ)義一致性方法(aLSTMs)進(jìn)行視頻標(biāo)題生成。2)已存在的解碼方法,產(chǎn)生每一個(gè)單詞,包括視覺(jué)單詞(像“gun”,“shooting”)和非視覺(jué)單詞(像“the”,“a”)結(jié)合注意力機(jī)制來(lái)關(guān)注最相關(guān)的視覺(jué)信息。然而這些非視覺(jué)單詞能夠很簡(jiǎn)單的結(jié)合自然語(yǔ)言模型就能預(yù)測(cè)出來(lái)。非視覺(jué)單詞結(jié)合注意力機(jī)制可能誤導(dǎo)或者降
5、低整個(gè)視頻標(biāo)題生成的效果。為了強(qiáng)調(diào)這個(gè)問(wèn)題,我們提出了一個(gè)結(jié)合可調(diào)節(jié)時(shí)間注意力機(jī)制的級(jí)聯(lián)LSTM(hLSTMat)進(jìn)行視頻標(biāo)題生成。這個(gè)框架利用時(shí)間注意力機(jī)制去選擇特定幀預(yù)測(cè)相關(guān)單詞,可調(diào)節(jié)時(shí)間注意力機(jī)制決定關(guān)注視覺(jué)信息還是自然語(yǔ)言信息。級(jí)聯(lián)LSTM同時(shí)考慮低層次的視覺(jué)信息和高層次的語(yǔ)言信息來(lái)幫助我們的視頻標(biāo)題生成。為了證明上述我們提到的方法有效性,我們?cè)贛SVD和MSR-VTT兩個(gè)數(shù)據(jù)集上做實(shí)驗(yàn),結(jié)果顯示,我們的方法取得了最好的效果。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于時(shí)空信息表達(dá)的視頻拷貝檢測(cè).pdf
- 基于時(shí)空信息的視頻目標(biāo)跟蹤算法研究.pdf
- 基于時(shí)空信息的視頻對(duì)象分割算法研究.pdf
- 基于深度學(xué)習(xí)的人類行為識(shí)別和視頻描述生成.pdf
- 基于時(shí)空信息融合的Snake視頻對(duì)象分割技術(shù)研究.pdf
- 基于時(shí)空信息和社會(huì)網(wǎng)的POI推薦算法研究與實(shí)現(xiàn).pdf
- 基于時(shí)空信息的輪廓編組算法研究.pdf
- 綜合時(shí)空信息的視頻序列中運(yùn)動(dòng)目標(biāo)分割算法.pdf
- 區(qū)域時(shí)空信息與時(shí)空過(guò)程模型的GIS表達(dá).pdf
- 時(shí)空信息和工作記憶廣度對(duì)情境模型更新的影響.pdf
- 基于深度學(xué)習(xí)的數(shù)據(jù)生成和三維姿態(tài)估計(jì).pdf
- 基于深度學(xué)習(xí)和信息增益的否定選擇算法.pdf
- 融合時(shí)空信息的短時(shí)交通流預(yù)測(cè).pdf
- 時(shí)空信息云平臺(tái)項(xiàng)目總體計(jì)劃
- 基于運(yùn)動(dòng)和深度信息的立體視頻幀率提升算法研究.pdf
- 基于HBase地理時(shí)空信息的精細(xì)化組織方法研究.pdf
- 基于深度學(xué)習(xí)的重復(fù)視頻檢測(cè).pdf
- 基于多通道時(shí)空信息的表面肌電信號(hào)分解.pdf
- 基于深度信息和ROI的3D視頻壓縮方法研究.pdf
- 基于深度信息的視頻跟蹤系統(tǒng).pdf
評(píng)論
0/150
提交評(píng)論