高速抓取并聯(lián)機器人生產(chǎn)線快速標(biāo)定.pdf_第1頁
已閱讀1頁,還剩61頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、高速抓取并聯(lián)機器人生產(chǎn)線快速標(biāo)定高速抓取并聯(lián)機器人生產(chǎn)線快速標(biāo)定FastCalibrationfProductionLinesofHighspeedPickplaceParallelRobot學(xué)科專業(yè):機械工程研究生:王蘭指導(dǎo)教師:孫月海教授梅江平副教授天津大學(xué)機械工程學(xué)院二零一二年十二月I摘要本文密切結(jié)合國家“高檔數(shù)控機床與基礎(chǔ)制造裝備”科技重大專項“高速搬運機器人及其物流生產(chǎn)線關(guān)鍵技術(shù)與示范應(yīng)用”課題,面向高速抓取并聯(lián)機器人生產(chǎn)線的

2、精度問題開展研究,內(nèi)容涉及基于視覺的位置誤差測量原理、機器人誤差建模、誤差辨識、誤差補償以及物流生產(chǎn)線位置分析。研究成果用于并聯(lián)機器人本體運動學(xué)快速標(biāo)定和物流生產(chǎn)線的位置標(biāo)定問題。論文主要研究成果和結(jié)論如下:1.構(gòu)造基于像素當(dāng)量的攝像機標(biāo)定模型,并采用基于中心無畸變區(qū)的成像主點標(biāo)定方法。闡述基于單目視覺平面測量末端誤差原理,并對視覺測量精度進(jìn)行分析。為采用視覺測量法檢測末端位置誤差提供了重要依據(jù)。2.在建立24項誤差參數(shù)模型的基礎(chǔ)上,分

3、析影響機器人位置誤差源的靈敏度系數(shù);結(jié)合精度設(shè)計,運用空間矢量鏈法,合理簡化誤差模型,建立了包含15項誤差參數(shù)的誤差模型和正、逆解模型。為建立基于單目視覺測量的誤差辨識模型提供了理論依據(jù)。3.通過計算機仿真驗證運動學(xué)標(biāo)定方法的有效性。標(biāo)定實驗結(jié)果證明提出的方法精度合適,操作簡便,完成迅速,有較高的工程實用性。4.提出了物流生產(chǎn)線與機器人位置關(guān)系的標(biāo)定方法,實現(xiàn)了機器人在生產(chǎn)線上的精準(zhǔn)定位,為機器人高速抓放物料提供了重要保障。關(guān)鍵詞:關(guān)鍵

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論