版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、近幾年來隨著機(jī)器人產(chǎn)業(yè)的發(fā)展,越來越多的機(jī)器人從實(shí)驗(yàn)室和工廠中走入人們的生活中。人與機(jī)器人越來越多的接觸對(duì)機(jī)器人提出了新的要求。機(jī)器人需要有足夠的適應(yīng)能力適應(yīng)變化的環(huán)境。此外,機(jī)器人的動(dòng)作還需要能模仿人類的動(dòng)作,讓這些動(dòng)作從人類的角度看起來自然而舒適。過去的機(jī)器人需要針對(duì)它們需要執(zhí)行的每一個(gè)任務(wù)進(jìn)行繁復(fù)的人工編程,即使在今天,絕大多數(shù)機(jī)器人仍是這么做的。但對(duì)需要在日常生活中與沒有專業(yè)知識(shí)的用戶進(jìn)行交互的機(jī)器人來說,人們很難想象如何提前考
2、慮好機(jī)器人在生活中所可能面對(duì)的所有任務(wù),并針對(duì)這些任務(wù)編寫好程序。這要求機(jī)器人能夠通過一個(gè)簡單直觀的方式學(xué)習(xí)新任務(wù)所要求的動(dòng)作,并且要求所學(xué)會(huì)的動(dòng)作具有魯棒性與適應(yīng)性。本文針對(duì)人機(jī)交互中存在的上述問題基于模仿學(xué)習(xí)與隱馬爾可夫模型展開了研究。
本文基于隱馬爾可夫模型對(duì)人手的動(dòng)作序列進(jìn)行建模,從而識(shí)別人類意圖。本文提出了一種簡潔有效的人手動(dòng)作序列識(shí)別算法,采用三維角度編碼方式,對(duì)人手位置進(jìn)行編碼。然后利用 Baum-Welch算法
3、結(jié)合前向后向算法從編碼數(shù)據(jù)中學(xué)習(xí)模型參數(shù)。此外本文引入閾值模型來區(qū)分已定義動(dòng)作和未定義動(dòng)作。當(dāng)用戶做出動(dòng)作時(shí),本文利用前向后向算法,迭代計(jì)算在各個(gè)模型參數(shù)下出現(xiàn)當(dāng)前觀測的概率。
傳統(tǒng)的基于模仿學(xué)習(xí)的人機(jī)交互問題的研究大部分都是基于DMPs(Dynamic Motor Primitives)方法所做的,DMPs方法雖然能夠在機(jī)器人具有高自由度的時(shí)候保持較高效率。但DMPs方法無法應(yīng)對(duì)時(shí)間上的擾動(dòng),并且不能將多條演示軌跡整合到一個(gè)
4、動(dòng)力學(xué)系統(tǒng)中。本文假設(shè)人類會(huì)根據(jù)交互距離的不同采取不一樣的交互動(dòng)作?;谶@個(gè)假設(shè),本文對(duì)機(jī)器人和人類在日常場景中的交互進(jìn)行了研究。針對(duì)DMPs方法所存在的問題,筆者引入了SEDS方法來基于演示學(xué)習(xí)軌跡。SEDS方法基于高斯混合模型設(shè)計(jì)了一個(gè)非線性動(dòng)力學(xué)系統(tǒng),在滿足所要求約束的前提下,這個(gè)動(dòng)力學(xué)模型在目標(biāo)點(diǎn)上是全局漸進(jìn)穩(wěn)定的。其中高斯混合模型的參數(shù)可以基于演示軌跡利用非線性最優(yōu)化方法結(jié)合EM算法獲得。
為了驗(yàn)證本文提出的方法的可
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于隱馬爾可夫模型的人臉識(shí)別研究.pdf
- 基于特征選擇和隱馬爾可夫模型的人臉識(shí)別.pdf
- 基于背景剪除和隱馬爾可夫模型的人體動(dòng)作識(shí)別.pdf
- 基于隱馬爾可夫模型的人臉識(shí)別技術(shù)研究.pdf
- 隱馬爾可夫模型簡介
- 隱馬爾可夫模型技術(shù)
- 基于隱馬爾可夫模型的人臉識(shí)別設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于出錯(cuò)成本的隱馬爾可夫模型主動(dòng)學(xué)習(xí).pdf
- 基于隱馬爾可夫模型的指紋匹配研究.pdf
- 基于隱馬爾可夫模型的音頻檢索.pdf
- 基于隱馬爾可夫模型脈象信號(hào)分類.pdf
- 基于隱馬爾可夫模型的推薦算法研究.pdf
- 基于小波和隱馬爾可夫模型的音頻分類.pdf
- 基于嵌入式隱馬爾可夫模型(EHMM)的人臉表情識(shí)別.pdf
- 基于隱馬爾科夫模型的人臉識(shí)別.pdf
- 基于隱馬爾可夫模型的手指靜脈識(shí)別研究.pdf
- 基于隱馬爾可夫模型的對(duì)象定位方法研究.pdf
- 基于隱馬爾可夫模型的動(dòng)態(tài)紋理分類.pdf
- 基于隱馬爾可夫模型的可用帶寬測量.pdf
- 基于嵌入式隱馬爾可夫模型的人臉識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論