2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩116頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著傳感器技術(shù)不斷發(fā)展,人們獲取圖像的途徑越來(lái)越多,使圖像融合處理的圖像種類(lèi)也越來(lái)越多。傳統(tǒng)的融合方法已經(jīng)不能滿(mǎn)足需要,要求對(duì)不同的圖像數(shù)據(jù)融合問(wèn)題提出有效的解決方法,而發(fā)展迅速的基于認(rèn)知的智能計(jì)算為許多問(wèn)題找到了很好的解決辦法。本文研究的目的就是在深入討論圖像融合預(yù)處理基礎(chǔ)上,再結(jié)合神經(jīng)網(wǎng)絡(luò)理論、遺傳算法和統(tǒng)計(jì)理論等,為解決圖像融合問(wèn)題提供有效方法。 本文研究主要包括兩大部分:第一部分為圖像融合預(yù)處理,包括圖像濾波、圖像分割和

2、圖像匹配。第二部分為圖像融合算法研究。研究主要圍繞圖像融合全過(guò)程而展開(kāi),完成的主要研究工作如下: 1、針對(duì)常規(guī)方法對(duì)降質(zhì)圖像恢復(fù)效果差的缺陷,設(shè)計(jì)了利用隱含Markov樹(shù)和小波變換的圖像恢復(fù)算法。在圖像經(jīng)過(guò)Wiener反卷濾波后,利用具有平移不變性的雙樹(shù)一復(fù)數(shù)小波變換進(jìn)行小波分解,而后在復(fù)數(shù)小波域中采用隱含Markov樹(shù)進(jìn)行去噪,最終實(shí)現(xiàn)受白噪聲干擾圖像的恢復(fù),取得了良好的效果。 2、針對(duì)形變目標(biāo)分割計(jì)算量大、模型表達(dá)復(fù)

3、雜,采用了交叉熵及曲線進(jìn)化對(duì)圖像進(jìn)行分割?;陬?lèi)間差異性最大的分割原則,利用交叉熵來(lái)構(gòu)造能量函數(shù),將分割問(wèn)題轉(zhuǎn)化為求能量函數(shù)最小化問(wèn)題;通過(guò)最小化能量函數(shù)導(dǎo)出用水平集方法表示的曲線進(jìn)化方程,而后利用快速算法進(jìn)行求解,實(shí)現(xiàn)圖像的有效分割。 3、針對(duì)圖像配準(zhǔn)的速度與精度問(wèn)題,改進(jìn)了基于小波分解和互信息的圖像配準(zhǔn)算法。采用分層配準(zhǔn)策略,加快了配準(zhǔn)的速度;利用Parzen窗來(lái)估計(jì)概率密度,采用二階梯度法求解配準(zhǔn)度量互信息的最優(yōu)值,提高了

4、配準(zhǔn)的精度和速度。該方法可以應(yīng)用于實(shí)時(shí)圖和參考圖之間有仿射變換的情況,并作為圖像匹配制導(dǎo)關(guān)鍵技術(shù)之一。 4、針對(duì)一般小波重構(gòu)復(fù)雜的缺點(diǎn),采用了提升策略進(jìn)行自適應(yīng)小波變換。這種算法可以很自然地實(shí)現(xiàn)信號(hào)的完全重建而并不需要其它額外信息,將該方法應(yīng)用于圖像融合中,把圖像的近似信號(hào)進(jìn)行平均,細(xì)節(jié)信號(hào)選取較大的進(jìn)行融合。仿真實(shí)驗(yàn)證明該方法能很好的提取圖像的細(xì)節(jié)分量,具有抗干擾能力,并可應(yīng)用于多傳感器遙感圖像融合中。 5、針對(duì)目前的

5、神經(jīng)網(wǎng)絡(luò)圖像融合方法的缺陷,提出了一種改進(jìn)的基于模糊核聚類(lèi)和神經(jīng)網(wǎng)絡(luò)的圖像融合方法。采用小波變換進(jìn)行混合噪聲圖像的濾波,設(shè)計(jì)模糊核聚類(lèi)算法進(jìn)行圖像聚類(lèi)操作,提高了融合效果和實(shí)時(shí)性。通過(guò)仿真試驗(yàn),并與其它的神經(jīng)網(wǎng)絡(luò)圖像融合方法進(jìn)行比較,結(jié)果表明該方法是有效的。 6、針對(duì)基于神經(jīng)網(wǎng)絡(luò)以及模糊神經(jīng)網(wǎng)絡(luò)的圖像融合方法存在內(nèi)部結(jié)構(gòu)和參數(shù)難以調(diào)整的問(wèn)題,提出了一種基于遺傳進(jìn)化模糊神經(jīng)網(wǎng)絡(luò)(FNN)的圖像融合方法。方法采用模糊神經(jīng)網(wǎng)絡(luò)(FNN

6、)作為單幅圖像的聚類(lèi)算法,以融合后圖像的峰值信噪比為適應(yīng)度函數(shù),利用遺傳算法調(diào)整模糊神經(jīng)網(wǎng)絡(luò)(FNN)的內(nèi)部參數(shù),從峰值信噪比的角度,最大程度地提高了圖像融合效果。仿真試驗(yàn)表明,與基于SOM網(wǎng)絡(luò)和基于模糊神經(jīng)網(wǎng)絡(luò)的圖像融合方法相比,這種方法是非常有效的。 7、針對(duì)傳統(tǒng)圖像融合方法魯棒性差的缺點(diǎn),設(shè)計(jì)了一種基于估計(jì)理論期望值最大的圖像融合方法。從多感測(cè)器成像模型出發(fā),設(shè)計(jì)出圖像的形成模型,分別基于圖像的模型以及期望值最大方法,推導(dǎo)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論