2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩132頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、三維人體模型生成是指在虛擬場景中利用計算機(jī)創(chuàng)建人的虛擬模型,它是計算機(jī)圖形學(xué)的經(jīng)典研究課題。該課題極具挑戰(zhàn)性,主要原因包括:一方面,三維人體模型具有高復(fù)雜度;另一方面,用戶很易察覺生成模型的失真度。
  傳統(tǒng)的三維人體模型生成技術(shù)難以向大眾用戶提供切實(shí)可行的建模方法。對于3D創(chuàng)作軟件,用戶可以通過3d Max、Maya等創(chuàng)作生成期望的模型,但其操作需要專業(yè)的美工,并且制作耗時。隨著三維激光掃描儀的出現(xiàn),三維模型的逆向重建變得可行,

2、但是激光掃描儀的昂貴價格使得其大部分應(yīng)用于科研或工業(yè)領(lǐng)域。上述兩種典型技術(shù)的缺陷嚴(yán)重限制了三維人體模型的生成,大眾用戶無法便捷地獲得自身的三維模型。
  隨著商用深度相機(jī)的出現(xiàn),大眾用戶可以擁有廉價的三維掃描設(shè)備。但是,深度相機(jī)的精度較低,原始的掃描數(shù)據(jù)難以滿足模型質(zhì)量的要求,這對數(shù)據(jù)的處理提出了嚴(yán)峻挑戰(zhàn)。
  基于新型深度相機(jī)(如Kinect),本文研究了三維人體模型的生成問題。此外,由于人體模型是由姿勢和形態(tài)這兩個因素決

3、定的,本文使用了人體模型的子空間,以提高人體模型生成的效率。本文的主要工作和創(chuàng)新點(diǎn)如下:
  1、提出了新的三階圖匹配算法和Bézier樣條曲線填充算法,構(gòu)建了利用兩臺深度相機(jī)快速采集三維人體模型的系統(tǒng)。系統(tǒng)的采集過程可以在瞬間完成,配置簡潔,操作靈活,可以在室外布置,具有應(yīng)用推廣價值。因?yàn)椴杉^程很短,用戶在采集過程中可以舒適地保持靜止姿勢。采集過程中,兩個已標(biāo)定的Kinect深度相機(jī)同時采集人的前后側(cè)。考慮到Kinect的視角

4、有限(垂直可視角度為43°),在近距離范圍內(nèi)(大約1.5m)無法采集到人的全身,利用Kinect自帶的馬達(dá)驅(qū)動改變俯仰角從而可以從前后側(cè)同時采集人的上中下三段,從而每個 Kinect可以得到人體的三個采集片段。這些片段在降噪后通過三階圖匹配的方法剛性注冊在一起。因?yàn)樗械钠慰梢栽谒查g采集完,身體移動導(dǎo)致的差異可以忽略,從而無需進(jìn)行非剛性注冊。前后采集數(shù)據(jù)之間的缺失可以通過貝塞爾曲線進(jìn)行填充。最終重建的網(wǎng)格模型具有較高的精度,可以顯示出

5、人的頭發(fā)、臉部和衣服上的皺褶。
  2、提出了基于人體子空間和單幀深度數(shù)據(jù)生成人體參數(shù)化模型的算法,克服了深度相機(jī)精度和采集條件的限制,構(gòu)建了利用單臺深度相機(jī)的人體模型生成系統(tǒng)?;趩文康统杀旧疃认鄼C(jī) Kinect采集的單幀數(shù)據(jù),本文結(jié)合先驗(yàn)知識,生成近似真實(shí)掃描數(shù)據(jù)的人體外形。本文不同于傳統(tǒng)人體生成方法:受限于 Kinect相機(jī)精度和采集條件的限制,其采集的單幀數(shù)據(jù)缺失很大、噪聲數(shù)據(jù)很多,從而難以利用局部幾何特征來精確重建。結(jié)合

6、人體是由形態(tài)、姿勢構(gòu)成的子空間這一全局先驗(yàn)知識,本文的方法很好彌補(bǔ)了數(shù)據(jù)缺失帶來的缺陷。實(shí)驗(yàn)結(jié)果表明,對于Kinect采集的單幀數(shù)據(jù),本文的方法能夠生成合理的人體外形。
  3、基于改進(jìn)的參數(shù)化實(shí)時人體子空間模型和單幀深度視頻序列,提出一種重建人體幾何和運(yùn)動的算法。算法具有無標(biāo)記點(diǎn)、實(shí)時生成等特征,能實(shí)時地完成模型的單視角生成,為動作采集與重建提供了一種簡易高效的方法。該算法簡稱為實(shí)時 SCAPE。它利用 SCAPE模型建立的人體

7、子空間,分別計算模型重建所需的形態(tài)和姿勢參數(shù)。首先,通過預(yù)處理方式,計算得到靜態(tài)的人體內(nèi)蘊(yùn)形態(tài)參數(shù),從而獲得近似于真實(shí)人體的形態(tài)子空間模型。其次,為了實(shí)現(xiàn)運(yùn)動重建,本文用線性混合蒙皮(LBS)方法替代了原始SCAPE模型的姿勢引導(dǎo)變形,LBS方法執(zhí)行速度快并且能得到較好的變形結(jié)果。LBS的權(quán)重參數(shù)也是從人體子空間中學(xué)習(xí)得到,并且可以提前計算,運(yùn)動重建過程中不再發(fā)生改變。從而,在線計算過程中,僅需求解LBS中的動作變換參數(shù),其可轉(zhuǎn)化為線性

8、變分方程的求解。在方程中,本文引入了附加的約束,以加強(qiáng)動作的時空一致性,降低失真度。實(shí)驗(yàn)顯示,本文提出的算法能夠快速重建出高質(zhì)量的人體三維模型序列。
  4、提出了一種基于人體子空間的三維人體模型編輯方法。對人體模型進(jìn)行簡單編輯是很多應(yīng)用的核心。但是,編輯操作極易生成出不合理的結(jié)果,與真實(shí)的結(jié)果差距很大。這是因?yàn)槿梭w自身具有全局的一致性,并符合人體解剖學(xué)原理,局部的形態(tài)和姿勢調(diào)整也要符合上述原則。使用人體子空間這一先驗(yàn)知識,可簡化

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論