人體行為檢測(cè)和識(shí)別-畢業(yè)論文_第1頁(yè)
已閱讀1頁(yè),還剩31頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、<p>  本科生畢業(yè)設(shè)計(jì)(論文)</p><p>  題 目: 人體行為檢測(cè)與識(shí)別 </p><p>  姓 名: </p><p>  學(xué) 號(hào): </p><p>  系 別:

2、 </p><p>  專(zhuān) 業(yè): </p><p>  年 級(jí): </p><p>  指導(dǎo)教師: </p><p>  2015 年 4 月 20 日</p>

3、<p><b>  獨(dú)創(chuàng)性聲明</b></p><p>  本畢業(yè)設(shè)計(jì)(論文)是我個(gè)人在導(dǎo)師指導(dǎo)下完成的。文中引用他人研究成果的部分已在標(biāo)注中說(shuō)明;其他同志對(duì)本設(shè)計(jì)(論文)的啟發(fā)和貢獻(xiàn)均已在謝辭中體現(xiàn);其它內(nèi)容及成果為本人獨(dú)立完成。特此聲明。</p><p>  論文作者簽名: 日期: </p><

4、p>  關(guān)于論文使用授權(quán)的說(shuō)明</p><p>  本人完全了解華僑大學(xué)廈門(mén)工學(xué)院有關(guān)保留、使用學(xué)位論文的規(guī)定,即:學(xué)院有權(quán)保留送交論文的印刷本、復(fù)印件和電子版本,允許論文被查閱和借閱;學(xué)院可以公布論文的全部或部分內(nèi)容,可以采用影印、縮印、數(shù)字化或其他復(fù)制手段保存論文。保密的論文在解密后應(yīng)遵守此規(guī)定。</p><p>  論文作者簽名: 指導(dǎo)教師簽名:

5、 日期: </p><p><b>  人體行為檢測(cè)與識(shí)別</b></p><p><b>  摘要</b></p><p>  人體行為檢測(cè)與識(shí)別是當(dāng)前研究的重點(diǎn),具有很高的研究?jī)r(jià)值和廣闊的應(yīng)用前景。主要應(yīng)用在型人機(jī)交互、運(yùn)動(dòng)分析、智能監(jiān)控和虛擬現(xiàn)實(shí)也稱(chēng)靈境技術(shù)(VR)領(lǐng)域,對(duì)于研究人體檢測(cè)和識(shí)別有著

6、重要的意義。因?yàn)槿说倪\(yùn)動(dòng)的復(fù)雜性和對(duì)外部環(huán)境的多變性,使得人們行為識(shí)別和檢測(cè)具有一些挑戰(zhàn)。對(duì)人類(lèi)行為和檢測(cè)的研究目前處于初級(jí)階段,有待進(jìn)一步研究和開(kāi)發(fā)。</p><p>  本文基于matlab人體行為識(shí)別和檢測(cè)的研究,本文主要研究的是從圖像中判斷出目標(biāo)處于何種行為,例如常見(jiàn)的走、坐、躺、跑、跳等行為的識(shí)別。從現(xiàn)有的很多主流研究成果來(lái)看,最常見(jiàn)的行為識(shí)別系統(tǒng)結(jié)構(gòu)包括幾個(gè)模塊:目標(biāo)檢測(cè)、目標(biāo)跟蹤、行為識(shí)別。本文首先

7、對(duì)圖像進(jìn)行判斷是否有人體目標(biāo),識(shí)別出人體后對(duì)圖像進(jìn)行灰度化,在對(duì)灰度圖像用背景差法與背景圖像比對(duì),最后,比對(duì)提取出的人體來(lái)判斷人體處于何種行為。</p><p>  關(guān)鍵詞:matlab,膚色識(shí)別,行為檢測(cè)</p><p>  Human behavior detection and recognition </p><p><b>  Abstract&

8、lt;/b></p><p>  Matlab human behavior recognition and detection of computer vision, intelligent video surveillance, human motion analysis, the nature of the interaction, virtual application prospect and r

9、eality of the economic value of the field, so a lot of research a hot topic these problem areas. Because of the complexity and diversity of human movement of the external environment, so that human behavior recognition h

10、as some challenges. The study of human behavior in its infancy now, pending further study an</p><p>  Recognition matlab studied human behavior recognition and detection based on paper studies is judged from

11、 the image in which the target behavior, such as a common walk, sit, lie down, running, jumping and other acts. From the many existing mainstream research point of view, the most common gesture recognition system archite

12、cture consists of several modules: target detection, target tracking, behavior recognition. Firstly, the images to determine whether there are human targets identified after t</p><p>  Keywords: matlab, colo

13、r identification, behavior detection</p><p><b>  目 錄</b></p><p><b>  第1章 緒論6</b></p><p>  1.1 研究背景6</p><p>  1.2 研究意義7</p><p>

14、;  1.3 研究?jī)?nèi)容7</p><p>  1.4 論文組織8</p><p>  第2章 基于人臉檢測(cè)的人體識(shí)別9</p><p><b>  2.1人臉特征9</b></p><p>  2.2 基于膚色的人臉檢測(cè)9</p><p>  第3章 行為識(shí)別13</p>

15、<p>  3.1 灰度化13</p><p>  3.2背景差分法算法14</p><p>  3.3背景差閾值分割法16</p><p>  3.4通過(guò)長(zhǎng)寬判斷人體行為16</p><p><b>  3.4小結(jié)19</b></p><p><b>  結(jié)論2

16、0</b></p><p><b>  參考文獻(xiàn)21</b></p><p><b>  謝辭23</b></p><p>  附錄二 文獻(xiàn)翻譯28</p><p><b>  第1章 緒論</b></p><p><b> 

17、 1.1 研究背景</b></p><p>  隨著社會(huì)的發(fā)展,人民生活的提高,人們?cè)絹?lái)越關(guān)注安全問(wèn)題,對(duì)視頻監(jiān)控系統(tǒng)的需求也爆發(fā)式擴(kuò)張,如停車(chē)場(chǎng),超市,銀行,工廠,礦山等安全有監(jiān)控設(shè)備,但監(jiān)控系統(tǒng)不會(huì)主動(dòng)實(shí)時(shí)監(jiān)控。因?yàn)樗鼈兺ǔT谙鄼C(jī)發(fā)生后的異常,但只有在記錄進(jìn)行了觀察和分析,以捕獲存儲(chǔ)的視頻圖像結(jié)果,然后知事實(shí)發(fā)生。因此迫切需要一種監(jiān)視系統(tǒng),它能夠在24小時(shí)的連續(xù)實(shí)時(shí)監(jiān)測(cè),并且相機(jī)自動(dòng)分析人類(lèi)行為識(shí)

18、別的有效的分析所捕獲的圖像數(shù)據(jù)。此外,當(dāng)發(fā)生異常時(shí),系統(tǒng)能夠守護(hù)人員準(zhǔn)確及時(shí)報(bào)警,從而避免犯罪和其他異常情況的發(fā)生。隨著監(jiān)控系統(tǒng)到位,以幫助人們甚至完成監(jiān)控任務(wù)??梢詼p少人力和財(cái)力的投入,由于就業(yè)監(jiān)視人員進(jìn)行。另外,如果長(zhǎng)時(shí)間不運(yùn)動(dòng)圖像信息記錄,保存幾下,就失去了意義和視頻監(jiān)控系統(tǒng)的存儲(chǔ)資源浪費(fèi)存儲(chǔ)空間。因此,傳統(tǒng)的監(jiān)視系統(tǒng)浪費(fèi)了大量的人力,并有可能引起報(bào)警,性能差的實(shí)時(shí)監(jiān)控的泄漏。監(jiān)控等實(shí)時(shí)行為分析系統(tǒng)來(lái)識(shí)別人體,不僅可以替代監(jiān)控人員

19、的工作的一部分,提高監(jiān)測(cè)系統(tǒng)的自動(dòng)化水平,同時(shí)也提高監(jiān)視存儲(chǔ)的效率,還有一個(gè)廣泛的應(yīng)用,并在視頻監(jiān)視系統(tǒng)的潛在經(jīng)濟(jì)價(jià)值之前。由于人的行為具有自由的偉大程度,因?yàn)樯眢w寬松長(zhǎng)裙不同程度和它的外貌和從圖像捕獲設(shè)</p><p><b>  1.2 研究意義</b></p><p>  人體行為檢測(cè)與識(shí)別技術(shù)除了在智能監(jiān)控系統(tǒng)中具有有廣泛的應(yīng)用前景和潛力,在計(jì)算機(jī)視覺(jué)中是一個(gè)

20、極具有吸引力及挑戰(zhàn)性的問(wèn)題。人體運(yùn)動(dòng)的視覺(jué)分析是一個(gè)新興前沿的研究領(lǐng)域,涉及模式識(shí)別,圖像處理,計(jì)算機(jī)視覺(jué),人工智能等多門(mén)學(xué)科。它可以廣泛應(yīng)用于許多領(lǐng)域,如:運(yùn)動(dòng)捕捉,人機(jī)交互,監(jiān)控和安全,環(huán)境控制和監(jiān)測(cè),體育及娛樂(lè)分析等,特別是在視頻監(jiān)控方面可廣泛應(yīng)用于銀行、郵電、教育、交通、公安、監(jiān)獄、法庭、大型公共設(shè)施、公共場(chǎng)所(銀行、醫(yī)院、停車(chē)場(chǎng)、商店、等公共場(chǎng)所甚至家庭庭院內(nèi))、大型倉(cāng)庫(kù)及軍事基地等場(chǎng)所,在國(guó)防與公共安全領(lǐng)域起著日益重要的作用

21、。綜上所述,因此,人體動(dòng)作的視覺(jué)分析具有極大的商業(yè)價(jià)值與現(xiàn)實(shí)意義。</p><p><b>  1.3 研究?jī)?nèi)容</b></p><p>  本文主要對(duì)人體行為檢測(cè)和識(shí)別方法進(jìn)行研究,主要研究?jī)?nèi)容如下: </p><p>  (1)判斷是否為人體</p><p>  在目標(biāo)提取之前,首先要對(duì)輸入的圖片進(jìn)行檢測(cè)。本文通過(guò)膚

22、色檢測(cè)判斷目標(biāo)是否為人體。</p><p><b>  (2)人體目標(biāo)提取</b></p><p>  如果是人體導(dǎo)入背景圖片與背景圖片做差,再通過(guò)背景差閾值分割法進(jìn)行提取。</p><p><b> ?。?)行為識(shí)別</b></p><p>  在解決了以上的問(wèn)題之后,接下來(lái)就是要選擇一種合適的算

23、法來(lái)進(jìn)行人體姿態(tài)識(shí)別,這也是本文研究的重點(diǎn)和難點(diǎn)。本文采用一種人體目標(biāo)的連通區(qū)域的長(zhǎng)寬比例來(lái)對(duì)人體行為進(jìn)行識(shí)別。</p><p><b>  1.4 論文組織</b></p><p>  論文的結(jié)構(gòu)安排如下:</p><p>  第一章闡述了人體行為識(shí)別技術(shù)的研究背景、研究意義以及本文所研究的主要內(nèi)容等。 </p><p&g

24、t;  第二章運(yùn)用膚色識(shí)別技術(shù)判斷人和非人的區(qū)別</p><p>  進(jìn)行圖片處理灰度化,在通過(guò)背景圖片與圖片做差,再通過(guò)背景差閾值分割法進(jìn)行提取,再通過(guò)連通區(qū)域的長(zhǎng)寬比來(lái)判斷何種行為</p><p>  第2章 基于人臉檢測(cè)的人體識(shí)別</p><p><b>  2.1人臉特征</b></p><p>  人臉是一個(gè)很

25、常見(jiàn)的,非常復(fù)雜的區(qū)域具有很強(qiáng)的代表性,是人體生物特征最直接的表現(xiàn),并與其他人的特點(diǎn)相比中包含的臉部的其他生物信息有以下幾個(gè)特點(diǎn):</p><p> ?。?)是最豐富的面部特征。</p><p> ?。?)應(yīng)用非常方便,無(wú)需使用其他輔助設(shè)備。</p><p> ?。?)人臉特征是最熟悉的人性化特點(diǎn),很容易被別人接受;</p><p>  (4

26、)人臉包含特征信息可直接用于使用,它不易被仿冒;</p><p>  在人類(lèi)的知識(shí)里面,人們對(duì)人的理解是最豐富的,人臉的結(jié)構(gòu)非常清晰,從臉部和五官的位置之間的關(guān)系非常了解對(duì)方,人類(lèi)已經(jīng)沒(méi)有什么困難判斷一個(gè)給定的通過(guò)人臉檢測(cè)或識(shí)別個(gè)人身份的圖像是否具有正面是真的很難。另外,通過(guò)觀察一個(gè)面的外部特征,它可以在很大程度上決定一個(gè)人的性別,表情,種族,身份和性格等直到與心理因素的某些內(nèi)容。但是,自動(dòng)檢測(cè)與識(shí)別的臉是一個(gè)具

27、有挑戰(zhàn)性的經(jīng)典研究,特別是要建立一個(gè)實(shí)用的系統(tǒng),可全自動(dòng)面部識(shí)別是非常困難的。主要的困難主要有以下幾個(gè)方面:</p><p> ?。?)面部器官,形狀,尺寸,顏色,質(zhì)地和千變?nèi)f化的面部表情,是很復(fù)雜的,很難形容一個(gè)統(tǒng)一的模式;</p><p> ?。?)人臉表面經(jīng)常有一些配套的異物,如眼鏡,胡須,耳環(huán)等;</p><p> ?。?)的復(fù)合物的實(shí)際應(yīng)用中,如復(fù)雜的背景

28、,光強(qiáng),臉姿勢(shì)如此不確定。</p><p>  2.2 基于膚色的人臉檢測(cè)</p><p>  人臉?lè)浅V匾囊粋€(gè)特性是膚色。研究表明:盡管不同種族、不同年齡、不同性別的人膚色看起來(lái)也會(huì)不相同,不同主要體現(xiàn)在亮度上面,根據(jù)亮度提取的色度空間里,不一樣的膚色分布是具有聚類(lèi)性的。在多種彩色空間里選取YCbCr彩色空間進(jìn)行膚色的提取,是利用了膚色在色度空間里的聚類(lèi)性。</p>&l

29、t;p>  顏色空間顏色空間是定義、創(chuàng)建和觀察顏色的方法。另外還有一些針對(duì)某些類(lèi)型的圖像應(yīng)用通過(guò)統(tǒng)計(jì)或物理分析,由RGB線(xiàn)性或非線(xiàn)性導(dǎo)出的顏色空間,靜態(tài)膚色模型目前常用的靜態(tài)膚色建模方法有三種類(lèi)型:辨別膚色范圍、高斯密度函數(shù)的估計(jì)和直方圖的統(tǒng)計(jì),本文采用辨別膚色范圍的方法。規(guī)定膚色范圍用數(shù)學(xué)表達(dá)式明確規(guī)定膚色范圍是一種簡(jiǎn)單的膚色建模方式,假設(shè)輸入像素的顏色落入RCr=[140;170]和RCb=[80;120]限定的矩形區(qū)域,就認(rèn)

30、為是屬于皮膚顏色像素。在不同的亮度分量y上的矩形區(qū)域(RCr,RCb)不同。這種簡(jiǎn)單的判斷方式運(yùn)行起來(lái)即快速又高效,特別是在實(shí)時(shí)系統(tǒng)中更具有可用的價(jià)值。</p><p>  由統(tǒng)計(jì)表明不同種族的人類(lèi)的皮膚顏色區(qū)別主要受亮度的影響,而受顏色的影響比較小,所以直接考慮YCbCr空間的CbCr分量,映射為CbCr空間,在CbCr空間下,受亮度變化的影響少,且是兩維獨(dú)立分布。通過(guò)實(shí)踐,選取大量皮膚顏色樣本進(jìn)行統(tǒng)計(jì),發(fā)現(xiàn)皮

31、膚顏色在CbCr空間的分布呈現(xiàn)出良好的聚類(lèi)特性。</p><p>  統(tǒng)計(jì)分布滿(mǎn)足:80Cb120 </p><p>  并且滿(mǎn)足:140Cr170 </p><p>  不同人類(lèi)的皮膚雖然相差很大,但在色度

32、上的差異遠(yuǎn)遠(yuǎn)小于亮度上的差異,其實(shí)不同人的皮膚顏色在色彩上比較接近,但在亮度上的差異很大,在二維色度平面上,皮膚顏色的區(qū)域比較集中,可以用高斯分布描述。</p><p>  其中每個(gè)像素的灰度對(duì)應(yīng)該點(diǎn)與皮膚顏色的相似度,相似度的計(jì)算公式如下:</p><p>  (2.21) </p><p>  其中m為均值,m=E(x),C為協(xié)方差矩陣,</p&g

33、t;<p>  , (2.22) </p><p>  膚色分布的2D高斯模型G(m,V2)也可表示為</p><p>  (2.23)

34、 </p><p>  其中,為相應(yīng)的平均值,為協(xié)方差矩陣。</p><p>  根據(jù)膚色識(shí)別原理識(shí)別人體膚色,再根據(jù)裸露皮膚最大的區(qū)域?yàn)槿四樔鐖D2-2所示:</p><p>  圖2-2(1)臥姿的人臉定位</p><p>  圖2-

35、2(2)跳躍的人臉定位</p><p>  圖2-2(3)行走時(shí)的人臉定位</p><p>  圖2-2(4)坐姿的人臉定位</p><p>  圖2-2(5)奔跑時(shí)的人臉定位</p><p><b>  第3章 行為識(shí)別</b></p><p>  日常生活人的基本姿態(tài)有站、坐、躺,組成一個(gè)姿態(tài)

36、集合A:</p><p>  A={跳,走,跑,坐,躺} (3.1)</p><p>  當(dāng)前檢測(cè)的姿態(tài),但是只有當(dāng)圖片中有人體時(shí)才能被檢測(cè)出來(lái),所以當(dāng)圖片中沒(méi)有人體時(shí)則認(rèn)為圖片中的信息是非人體。</p><p>  圖3-1 識(shí)別流程圖</p><p><b>  3.1 灰度化</b>&l

37、t;/p><p>  顏色可分為彩色和黑白。顏色中不包含任何的色彩成分,僅由白色和黑色組成的是黑白。在顏色模型RGB中,當(dāng)R=G=B,那么顏色(R,G,B)則表示為一種黑白的顏色;其中R=G=B的值是灰度值,所以黑白色即灰度顏色?;叶扰c彩色之間是可以相互轉(zhuǎn)化的,由灰度化轉(zhuǎn)為彩色的稱(chēng)為偽彩色處理過(guò)程;由彩色轉(zhuǎn)化為灰度的叫做灰度化處理過(guò)程。</p><p>  相應(yīng)地,數(shù)字圖像可區(qū)分為灰度圖像和彩

38、色圖像。通過(guò)偽彩色處理和灰度化處理,可以使偽彩色圖像與灰度圖像之間進(jìn)行相互轉(zhuǎn)化。</p><p>  使彩色的R,G,B分量值相等的過(guò)程就是灰度化?;叶鹊募?jí)別只有256級(jí),即灰度圖像僅能表現(xiàn)256種顏色(灰度),主要是因?yàn)镽,G,B的取值范圍是0 ~ 255。</p><p>  灰度化的處理方法主要有如下3種[6]:</p><p> ?。?)最大值法:使R,G,

39、B的值等于3個(gè)值中最大的一個(gè),即</p><p>  (3.11) </p><p>  利用這種方法可以形成高亮度的灰度圖像。</p><p>  (2)平均值法:利用R,G,B的值求出平均值,即</p><p><b>  (3.12)</b></p>&

40、lt;p>  平均值法可以形成相對(duì)比較柔和的灰度圖像。</p><p> ?。?)加權(quán)平均值法:依據(jù)重要性或其他指標(biāo)給R,G,B賦上不同的權(quán)值,并且使R,G,B的值加權(quán)平均,即</p><p><b>  (3.13)</b></p><p>  其中Wr,Wg,Wb分別為R,G,B的權(quán)值。當(dāng)Wr,Wg,Wb取不相同的值時(shí),加權(quán)平均值法就

41、會(huì)形成不同的灰度圖像。綠色是人眼最敏感度的顏色,紅色次之,對(duì)藍(lán)色最低,因此使將得到比較合理的灰度圖像。由理論和實(shí)驗(yàn)推導(dǎo)證明,當(dāng)Wr = 0.30,Wg =0.59,Wb=0.11時(shí),即當(dāng)</p><p><b>  (3.14)</b></p><p><b>  (3.15)</b></p><p>  時(shí),能得到最合適

42、的灰度圖像。</p><p>  3.2背景差分法算法 </p><p>  背景差分法別名背景減法,背景差分法的原理是將當(dāng)前的圖像與背景圖像進(jìn)行差分來(lái)得到目標(biāo)區(qū)域,這種方法能很好的識(shí)別和提取運(yùn)動(dòng)目標(biāo),是目前運(yùn)動(dòng)分割中最常用的一種方法。但是需要構(gòu)建一幅背景圖像,這幅背景圖像必須不含要檢測(cè)的目標(biāo)或其他不需要檢測(cè)目標(biāo),并且應(yīng)該能不斷的更新來(lái)分辨當(dāng)前背景的變化。</p><p

43、>  背景差分法法是靜止背景下運(yùn)動(dòng)目標(biāo)識(shí)別和分割的另一種做法。如不考慮噪音n(x,y,t)的影響,視頻幀圖像I(x,y,t)可以看作是由背景圖像b(x,y,t)和運(yùn)動(dòng)目標(biāo)m(x,y,t)組成:</p><p><b>  (3.21)</b></p><p>  由式(4-14)可得運(yùn)動(dòng)目標(biāo)m(x,y,t):</p><p><b&

44、gt; ?。?.22)</b></p><p>  而在實(shí)際中,受噪音的影響,式(4-15)不能得到真正的運(yùn)動(dòng)目標(biāo),而是由運(yùn)動(dòng)目標(biāo)區(qū)域和噪音組成的差分圖像d(x,y,t),即:</p><p><b> ?。?.23)</b></p><p>  得到運(yùn)動(dòng)目標(biāo)需要依據(jù)某一判斷原則進(jìn)一步處理,最常用的方法為閾值分割的方法:</p

45、><p><b> ?。?.24)</b></p><p><b>  式中T為一閾值</b></p><p>  圖3-2(1)為背景差分法的流程圖:</p><p><b>  圖3-2(1)</b></p><p>  背景差分法實(shí)現(xiàn)步驟:</p

46、><p>  通過(guò)這次畢業(yè)設(shè)計(jì)的摸索,可將背景差分法的實(shí)現(xiàn)步驟總結(jié)如下:</p><p>  (1)進(jìn)行圖像的預(yù)處理:主要包括對(duì)圖像進(jìn)行灰度化以及濾波。</p><p> ?。?)背景建模:這是背景差法較為重要的第一步。目前大多的思路都是根據(jù)前N幀圖像的灰度值進(jìn)行區(qū)間統(tǒng)計(jì)從而得到一個(gè)具有統(tǒng)計(jì)意義的初始背景。由于背景比較簡(jiǎn)單則選取圖3-1(2)作為背景圖:</p&g

47、t;<p>  圖3-2(2)為背景圖片</p><p>  (3)前景提取:將圖像與背景做差,即可求得背景差圖,然后根據(jù)一定的方法對(duì)改圖進(jìn)行二值化,最終獲得運(yùn)動(dòng)前景區(qū)域,即實(shí)現(xiàn)圖像分割。</p><p>  關(guān)于圖像的二值化,目前主要的難點(diǎn)在于閾值的選取,隨著運(yùn)動(dòng)物體在整個(gè)監(jiān)控區(qū)域內(nèi)的運(yùn)動(dòng),所拍攝的圖片具有不同的灰度特性,因此閾值的選取是一個(gè)研究熱點(diǎn),目前多采用的方法有最大

48、類(lèi)間方差法,一維交叉熵閾值法,二維交叉熵閾值法以及其他的自適應(yīng)閾值選取方法等。由于本人對(duì)此研究不深,故選固定的閾值。</p><p>  3.3背景差閾值分割法</p><p>  運(yùn)用閾值法原理進(jìn)行分割,閾值法是比較簡(jiǎn)單的圖像分割方法,是一種常常運(yùn)用的并行區(qū)域的技術(shù)。閾值是用運(yùn)在區(qū)分目標(biāo)圖片和背景圖片的灰度門(mén)限。如果要檢測(cè)的圖像只有目標(biāo)和背景兩類(lèi),那么只需要選取一個(gè)閾值這種方法稱(chēng)為單閾值

49、分割,這種方法是將圖像中每個(gè)像素中的灰度值與閾值相對(duì)比,灰度值大于閾值的算一種,灰度值小于閾值的為另一種。如果圖像中存在多個(gè)檢測(cè)目標(biāo)或無(wú)關(guān)目標(biāo),那么就選多個(gè)閾值將每個(gè)目標(biāo)及背景區(qū)分開(kāi),這種方法稱(chēng)為多閾值分割閾值,由于本人只有一個(gè)目標(biāo)則采用單閾值分割,圖3-3(1)為分割前后的比對(duì)</p><p><b>  sitwalk</b></p><p><b>

50、  圖3-3(1)</b></p><p>  3.4通過(guò)長(zhǎng)寬判斷人體行為</p><p>  行為分析最基本的兩個(gè)問(wèn)題:行為描述和行為識(shí)別。 </p><p>  由于人體具有一定的比例關(guān)系,例如,手臂在身體的上半部分,腳在身體的下半部分。可以想象,如果在某個(gè)區(qū)域內(nèi)白點(diǎn)數(shù)(白色像素達(dá)標(biāo)目標(biāo))比較多,則說(shuō)明有肢體出現(xiàn)在該區(qū)域。如果事先能夠定義好所有可能的

51、姿態(tài)集合,并根據(jù)每一個(gè)姿態(tài)確定其區(qū)域組合,即可事先對(duì)姿態(tài)的判斷。以左腳為例,若通過(guò)計(jì)算、和區(qū)的目標(biāo)比例(即白點(diǎn)數(shù)與該區(qū)域的比例)后發(fā)現(xiàn)中的目標(biāo)比例最大,則可判定左腳有拾起動(dòng)作,角度大概在20~40之間。為了更好地確定動(dòng)作的角度,可以把區(qū)域劃分得更細(xì)(該算法首先需要確定人體的標(biāo)準(zhǔn)位置,用紅色矩形框標(biāo)出,計(jì)算出矩形框的高H和寬L,根據(jù)高寬的比例來(lái)判斷人體的姿態(tài)。</p><p>  這種方法的缺點(diǎn)在于,在除法運(yùn)算的角

52、度是粗糙的,進(jìn)行更詳細(xì)的動(dòng)作,如拾取小角度肢,四肢彎曲(如臀部)等不能分割,分辨不夠精確。有極個(gè)別的行為長(zhǎng)寬比會(huì)重合,行為識(shí)別結(jié)果如圖3-1所示</p><p>  圖3-4(1)臥姿判斷</p><p>  圖3-4(2)坐姿判斷</p><p>  圖3-4(4)行走判斷</p><p>  圖3-4(4)跳躍判斷</p>

53、<p>  圖3-4(5)奔跑判斷</p><p><b>  3.4小結(jié)</b></p><p>  本章是基于第1章識(shí)別出人臉之后進(jìn)行姿態(tài)識(shí)別的著重介紹,首先運(yùn)用背景差分法,排除背景對(duì)識(shí)別的干擾;然后進(jìn)行人體目標(biāo)的提取,再根據(jù)外接框的長(zhǎng)寬比,以此判斷出人體處于何種姿態(tài)。</p><p><b>  結(jié)論</b>

54、;</p><p>  經(jīng)過(guò)這次畢業(yè)設(shè)計(jì),我擺脫了單純的理論知識(shí)狀態(tài),鍛煉了我的綜合運(yùn)用專(zhuān)業(yè)知識(shí)的實(shí)際設(shè)計(jì),提高我查閱文獻(xiàn)資料的水平,也由畢業(yè)論文的設(shè)計(jì),這給我寫(xiě)的論文的能力得到提高。盡管畢業(yè)設(shè)計(jì)過(guò)程繁瑣,內(nèi)容復(fù)雜,但它讓我收獲更加豐富。讓我對(duì)于理解和使用MATLAB程序設(shè)計(jì)得到了提高和加深。和老師溝通是也使自己的設(shè)計(jì)有新的要求和更深刻的了解。</p><p>  在設(shè)計(jì)過(guò)程中,程序始終困

55、擾著我,因?yàn)樵谶@個(gè)領(lǐng)域只是剛剛?cè)腴T(mén),也可以說(shuō)是只懂一些簡(jiǎn)單的指令,為了做出滿(mǎn)意的畢設(shè),經(jīng)常求教與老師,老師也很耐心的解決了我的問(wèn)題,使我的設(shè)計(jì)指導(dǎo)的問(wèn)題得以解決。這讓我意識(shí)到,不管我們必須學(xué)會(huì)與他人溝通。正是這樣的設(shè)計(jì)讓我積累了大量的實(shí)踐經(jīng)驗(yàn),相信腦海里的知識(shí),讓我在今后的工作中表現(xiàn)出較高的彈性和學(xué)習(xí),更多的理解和溝通能力。</p><p>  論文從來(lái)不知道怎么寫(xiě),這個(gè)畢業(yè)設(shè)計(jì),這給了我很大的信心順利完成時(shí)間表

56、,讓我對(duì)專(zhuān)業(yè)前景有信心同時(shí)還學(xué)習(xí)了專(zhuān)業(yè)知識(shí)。</p><p><b>  參考文獻(xiàn)</b></p><p>  [1] 李智毅.新一代Web應(yīng)用開(kāi)發(fā)技術(shù)AJAX[C]//孫立峰.第二屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議論文集. 北京:清華大學(xué)出版社,2007.31-34</p><p>  [2] 王培,馮曼菲.Web 2.0開(kāi)發(fā)技術(shù)詳解[M].北京:人

57、民郵電出版社,2006.389-403,495-520.</p><p>  [3] Garrett J J. Ajax:A New Approach to Web Applications[EB/OL]. http://www.adaptivepath.com/publications/essays/archives/000385.php,2005-2-18</p><p>  [4]

58、[美]Ryan Asleson , Nathaniel T.Schutta.Ajax 基礎(chǔ)教程,金靈等譯.北京:人民郵電出版社,2006.</p><p>  [5] 徐馳. Ajax模式在異步交互Web環(huán)境中的應(yīng)用[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2006,16(11):229-233.</p><p>  [6] 姚國(guó)新.基于Ajax的WEB應(yīng)用技術(shù)的研究與實(shí)現(xiàn)[D]:[碩士學(xué)位論文].陜西

59、:西北大學(xué)信息科學(xué)與技術(shù)學(xué)院,2006.</p><p>  [7] 劉相濱,向堅(jiān)持,王勝春,等.人行為識(shí)別與理解研究探討[J].計(jì)算機(jī)與現(xiàn)代化.2004(12):10-15.</p><p>  [8] 王亮,胡衛(wèi)明,譚鐵牛.人運(yùn)動(dòng)的視覺(jué)分分析綜述[J],計(jì)算機(jī)學(xué)報(bào).2002(25):19-23.</p><p>  [9] 韓思奇,王蕾.圖像分割的閾值法綜述[J

60、].系統(tǒng)工程與電子技術(shù),2002(24):12-17.</p><p>  [10] 朱秀昌,劉峰,胡棟編著.數(shù)字圖像處理與圖像通信[M].北京郵電大學(xué)出版色.2002:234-259.</p><p>  [11] 張宏林,蔡銳.數(shù)字銅線(xiàn)模式識(shí)別及工程實(shí)踐[M].北京人民郵電出版社.2007:325-373.</p><p>  [12] 黃福珍,蘇劍波.人臉檢測(cè)

61、[M].上海交通大學(xué)出版社.2006:257-369.</p><p>  [13] 胡學(xué)龍.數(shù)字圖像處理(第2版)[M].電子工業(yè)出版社.2011;137-152. </p><p>  [14] 于殿泓.圖像檢測(cè)與處理技術(shù)[M].西安電子科大.2006:125-141. </p><p>  [15] 王志波,陳慶財(cái).步態(tài)識(shí)別綜述[J].辦公自動(dòng)化.2012(0

62、4):23-39.</p><p>  [16] 周維柏,李蓉.基于軌跡特征分析的行人異常行為識(shí)別[J].電腦編輯技巧與維護(hù).2010(12):35-51.</p><p>  [17] 于海濱.基于頭部特征提取的人體檢測(cè)與跟蹤及其應(yīng)用[D].浙江大學(xué).2007:1-9.</p><p>  [18] 劉翔樓,張明,鄧艷茹.一種人臉對(duì)象的區(qū)域分割方法[J].科學(xué)技術(shù)

63、與工程.2011(12):21-34.</p><p>  [19] 張洪明,趙德斌,高文.基于膚色模型、神經(jīng)網(wǎng)絡(luò)和人臉結(jié)構(gòu)模型的平面旋轉(zhuǎn)人臉檢測(cè)[J].計(jì)算機(jī)學(xué)報(bào).2002(11):15-27.</p><p>  [20] 張繼濤,王偉,高君林.基于膚色分割和模板匹配的人臉檢測(cè)技術(shù)研究與實(shí)現(xiàn)[J].自然科學(xué)報(bào).2009(01):30-45.</p><p>  

64、[21] 朱喜.基于FPGA的圖像預(yù)處理單元的設(shè)計(jì)與實(shí)現(xiàn)[D].湖南大學(xué).2010:5-17.</p><p>  [22] 馮柳.基于FPGA的圖像處理算法的研究與設(shè)計(jì)[D].西南交通大學(xué).2008:12-21.</p><p>  [23] 梁路宏,艾海舟,徐光欲.人臉檢測(cè)研究綜述[J].計(jì)算機(jī)學(xué)報(bào).2002(25):5-10.</p><p>  [24] D

65、axis J,Bobick A.The Recognition of Human Movement Using Temporal Templates[J].IEEE Trans PAMI,2001,15(3):257-267.</p><p>  [25] Kale A, Roy-Chowbury A, Chellappa R Fusion of gait and face for human Identific

66、ation[C] In: Intl confon Acoustics, Acoustics, speech and Signal. Processing Canada: Montreal, 2004,22-37.</p><p>  [26] A F Bobick,J W Davis.The recognition of human movement using temporal templates[J],IEE

67、ETrans.Pattern Anal.& Mach.Intell.,2001,3(21):257-267.</p><p><b>  謝辭</b></p><p>  在本文即將結(jié)束之際,大學(xué)的生活即將結(jié)束,在這期間在導(dǎo)師韓霜的悉心指導(dǎo)下,我不僅學(xué)到了很多專(zhuān)業(yè)技術(shù)知識(shí),而且懂得了很多人生道理,這將使我一生受用。首先,我要衷心地感謝我的導(dǎo)師韓霜。論文選題、研

68、究思路以及論文的 撰寫(xiě)等方面都匯集了印老師大量的心血。感謝老師們?cè)诖髮W(xué)期間對(duì)我思想方法的指導(dǎo),使我專(zhuān)業(yè)知識(shí)的學(xué)習(xí)和實(shí)踐能力都有了很大的提高。</p><p>  衷心感謝所有在學(xué)習(xí)期間給予我?guī)椭椭С值膸熼L(zhǎng)和朋友,謝謝他們?cè)诟鞣矫娴膸椭?,很高興能和他們一起分享學(xué)習(xí)和生活的快樂(lè)。深深地感謝父母對(duì)我養(yǎng)育之恩和諄諄教誨,雖然現(xiàn)在不在身邊,但是他們總是給我鼓勵(lì),教我戰(zhàn)勝困難,他們的支持給了我戰(zhàn)勝困難的勇氣。最后,向所有關(guān)

69、心,幫助,理解和愛(ài)護(hù)過(guò)我的老師,同學(xué),家人表示深深地感謝! 感謝我的家人還有我的室友同學(xué)以及所有幫助過(guò)我的其他老師和朋友們,正是因?yàn)槟銈儗?duì)我的殷切期望和默默支持,我才能一心一意完成這篇論文,謝謝你們的支持、鼓勵(lì)。</p><p>  感謝我的父母,感謝他們這么多年來(lái)給我生活和學(xué)習(xí)上的關(guān)愛(ài)與支持,沒(méi)有 他們的鼓勵(lì)與支持,我不可能順利的完成學(xué)業(yè)。</p><p>  附錄1 部分關(guān)鍵源碼及解

70、釋</p><p>  在這部分,將結(jié)合具體的源代碼具體說(shuō)明系統(tǒng)的執(zhí)行流程和邏輯。</p><p><b>  %申明數(shù)據(jù)庫(kù)的位置</b></p><p>  input = 'dataset';</p><p>  %申明前景檢測(cè)輸出圖像的位置</p><p>  output

71、= 'forground';</p><p>  output2 = 'result';</p><p>  str1 = dir(input); %存儲(chǔ)每個(gè)動(dòng)作的文件夾</p><p>  bk = imread('bk.png');%讀入背景圖片</p><p>  bk = rgb2gra

72、y(bk);</p><p>  % 彩色背景轉(zhuǎn)灰度背景</p><p>  threshold = 40; %背景差閾值</p><p>  radio_jump = [];</p><p>  radio_lie = [];</p><p>  radio_run = [];</p><p>

73、;  radio_sit = [];</p><p>  radio_walk = [];</p><p>  for x = 3:length(str1) %循環(huán)每個(gè)動(dòng)作文件夾</p><p><b>  x</b></p><p>  str2 = dir([input '\' str1(x).nam

74、e '\*.png']); %存儲(chǔ)每個(gè)動(dòng)作文件中的圖片信息</p><p>  mkdir_fun(output, str1(x).name); % 在前景輸出文件夾中,為每個(gè)動(dòng)作創(chuàng)建文件夾</p><p>  mkdir_fun(output2, str1(x).name);</p><p>  for y = 1:length(str2) % 循

75、環(huán)每個(gè)圖片</p><p><b>  y</b></p><p><b>  %讀入圖片</b></p><p>  im = imread([input '\' str1(x).name '\' str2(y).name]);</p><p>  im_gray

76、= rgb2gray(im);%彩色圖轉(zhuǎn)灰度圖</p><p>  diff = abs(double(im_gray) - double(bk));</p><p>  fg = diff>threshold; % 背景差閾值分割法,求前景</p><p>  fg = medfilt2(fg); %中值濾波去噪點(diǎn)</p><p>

77、  bb = regionprops(fg,'BoundingBox');</p><p>  area = regionprops(fg,'Area');</p><p>  %尋找最大連通域的外接框的坐標(biāo)</p><p>  max_index = 1;</p><p>  max_area = 0;<

78、;/p><p>  for z = 1:size(area,1)</p><p>  if area(z).Area >= max_area;</p><p>  max_area = area(z).Area;</p><p>  max_index = z;</p><p><b>  end</

79、b></p><p><b>  end</b></p><p>  %[x y x_with y_with]</p><p>  %計(jì)算外接框的長(zhǎng)寬比</p><p>  radio = bb(max_index).BoundingBox(3)/bb(max_index).BoundingBox(4);</

80、p><p><b>  if x == 3</b></p><p>  radio_jump = [radio_jump;radio];</p><p><b>  end</b></p><p><b>  if x == 4</b></p><p>  

81、radio_lie = [radio_lie;radio];</p><p><b>  end</b></p><p>  if x == 5 </p><p>  radio_run = [radio_run;radio];</p><p><b>  end</b></p>&l

82、t;p><b>  if x == 6</b></p><p>  radio_sit = [radio_sit;radio];</p><p><b>  end</b></p><p><b>  if x == 7</b></p><p>  radio_walk

83、= [radio_walk;radio];</p><p><b>  end</b></p><p>  imshow(im)</p><p>  % 判斷外接框內(nèi)是否有膚色, 如果有膚色, 才是人, 才進(jìn)入行為判斷</p><p>  c = floor(bb(max_index).BoundingBox(1)) ;

84、 %x</p><p>  r = floor(bb(max_index).BoundingBox(2)); %y</p><p>  c_width = bb(max_index).BoundingBox(3); %x_with</p><p>  r_width = bb(max_index).BoundingBox(4); % y_with</p>

85、<p>  rectangle('Position', [c r c_width r_width])</p><p>  sum_im = im(r:r+r_width,c:c+c_width,:); %外接框圖像</p><p>  skin = skin_fun(sum_im); %尋找是否有膚色</p><p>  skin =

86、medfilt2(skin);</p><p>  bb_skin = regionprops(skin,'BoundingBox'); %如果有膚色,切割出連通域</p><p>  min_index = 1;</p><p>  min_height = 720;</p><p>  for z = 1:size(bb_

87、skin,1)</p><p>  if bb_skin(z).BoundingBox(2) <= min_height;</p><p>  min_height = bb_skin(z).BoundingBox(2);</p><p>  min_index = z;</p><p><b>  end</b>

88、</p><p><b>  end</b></p><p>  c2 = floor(bb(max_index).BoundingBox(1))+floor(bb_skin(min_index).BoundingBox(1)) ; %x</p><p>  r2 = floor(bb(max_index).BoundingBox(2))+fl

89、oor(bb_skin(min_index).BoundingBox(2)); %y</p><p>  c_width2 = bb_skin(min_index).BoundingBox(3); %x_with</p><p>  r_width2 = bb_skin(min_index).BoundingBox(4); % y_with</p><p>  if

90、 size(bb_skin,1) >=1 %如果找到膚色</p><p>  rectangle('Position', [c r c_width r_width])</p><p>  rectangle('Position', [c2 r2 c_width2 r_width2])</p><p>  text(c2+c_

91、width2+5,r+r_width2+5,'face') ;</p><p><b>  %jump</b></p><p>  if radio<= 0.5</p><p>  text(c-5,r-5,'jump') ;</p><p><b>  end<

92、/b></p><p><b>  %lie</b></p><p>  if radio>= 1</p><p>  text(c-5,r-5,'lie') ;</p><p><b>  end</b></p><p><b>  %

93、run</b></p><p>  if radio >0.54 && radio<0.6</p><p>  text(c-5,r-5,'run') ;</p><p><b>  end</b></p><p><b>  %sit</b>

94、;</p><p>  if radio >=0.6 && radio <1</p><p>  text(c-5,r-5,'sit') ;</p><p><b>  end</b></p><p><b>  %walk</b></p>

95、<p>  if radio<=0.54 && radio>0.5</p><p>  text(c-5,r-5,'walk') ;</p><p><b>  end</b></p><p>  else %如果沒(méi)找到膚色</p><p>  text(c-5,r-

96、5,'No Human') ;</p><p><b>  end</b></p><p>  saveas(gcf,[output2 '\' str1(x).name '\' str2(y).name]);</p><p>  pause(0.005)</p><p> 

97、 imwrite(fg,[output '\' str1(x).name '\' str2(y).name]);</p><p><b>  end</b></p><p><b>  end</b></p><p>  % mean(radio_jump) 0.468</p>

98、<p>  % max(radio_jump) 0.6440</p><p>  % min(radio_jump) 0.3299</p><p>  % mean(radio_lie) 4.4732</p><p>  % max(radio_lie) 6</p><p>  % min(radio_lie) 1.4</

99、p><p>  % mean(radio_run) 0.57</p><p>  % max(radio_run) 0.7</p><p>  % min(radio_run) 0.34</p><p>  % mean(radio_sit) 0.6</p><p>  % max(radio_sit) 0.7

100、</p><p>  % min(radio_sit) 0.59</p><p>  % mean(radio_walk) 0.4</p><p>  % max(radio_walk) 0.54</p><p>  % min(radio_walk) 0.27</p><p>  plot(radio_jum

101、p,'b');</p><p><b>  hold on;</b></p><p>  plot(radio_lie,'g');</p><p><b>  hold on;</b></p><p>  plot(radio_run,'k');<

102、;/p><p><b>  hold on;</b></p><p>  plot(radio_sit,'y');</p><p><b>  hold on;</b></p><p>  plot(radio_walk,'r');</p><p>

103、;<b>  附錄二 文獻(xiàn)翻譯</b></p><p>  Complex Ridgelets for Image Denoising</p><p>  Wavelet transforms have been successfully used in many scientific fields such as image compression, image d

104、enoising, signal processing, computer graphics,and pattern recognition, to name only a few.Donoho and his coworkers pioneered a wavelet denoising scheme by using soft thresholding and hard thresholding. This approach app

105、ears to be a good choice for a number of applications. This is because a wavelet transform can compact the energy of the image to only a small number of large coefficients a</p><p>  and Donoho pointed out,

106、this algorithm exhibits visual artifacts: Gibbs phenomena in the neighbourhood of discontinuities. Therefore, they propose in a translation invariant (TI) denoising scheme to suppress such artifacts by averaging over the

107、 denoised signals of all circular shifts. The experimental results in confirm that single TI wavelet denoising performs better than the non-TI case. Bui and Chen extended this TI scheme to the multiwavelet case and they

108、found that TI multiwavelet denoising</p><p>  along the lines x1cos_ + x2sin_ = constant. In the direction orthogonal to these ridges it is a wavelet.Ridgelets have been successfully applied in image denoisi

109、ng recently. In this paper, we combine the dual-tree complex wavelet in the ridgelet transform and apply it to image denoising. The approximate shift invariance property of the dual-tree complex wavelet and the good prop

110、erty of the ridgelet make our method a very good method for image denoising.Experimental results show that by using dua</p><p><b>  復(fù)雜脊波圖像去噪</b></p><p>  小波變換已成功地應(yīng)用于many scientific f

111、ields such as image compression, i許多科學(xué)領(lǐng)域,如圖像壓縮,圖像age denoising, signal processing, com去噪,信號(hào)處理,計(jì)算機(jī)圖形,ics, and pattern recognition, to name only a feIC和模式識(shí)別,僅舉幾例。Donoho和他的同事們提出了小波閾值去噪通過(guò)軟閾值和閾值.這種方法的出現(xiàn)對(duì)于大量的應(yīng)用程序是一個(gè)好的選擇。這是因?yàn)橐粋€(gè)

112、小波變換能結(jié)合的能量,在一小部分的大型系數(shù)和大多數(shù)的小波系數(shù)中非常小,這樣他們可以設(shè)置為零。這個(gè)閾值的小波系數(shù)是可以做到的只有細(xì)節(jié)的小波分解子帶。我們有一些低頻波子帶不能碰觸,讓他們不閾值。眾所周知,Donoho提出的方法的優(yōu)勢(shì)是光滑和自適應(yīng)。然而,Coifman和Donoho指出,這種算法展示出一個(gè)視覺(jué)產(chǎn)出:吉布斯現(xiàn)象在鄰近的間斷。因此,他們提出對(duì)這些產(chǎn)出去噪通過(guò)平均抑制所有循環(huán)信號(hào)。實(shí)驗(yàn)結(jié)果證實(shí)單目標(biāo)識(shí)別小波消噪優(yōu)于沒(méi)有目標(biāo)識(shí)別的情

113、況。Bui和Chen擴(kuò)展了這個(gè)目標(biāo)識(shí)別計(jì)劃,他們發(fā)現(xiàn)多小波的目標(biāo)</p><p>  研究脊波變換的數(shù)多年來(lái)打破了小波變換的局限性。將小波變換產(chǎn)生的二維圖像在每個(gè)規(guī)模大的小波系數(shù)的分解。有這么多的大系數(shù),對(duì)于圖像去噪有很多困難。我們知道脊波變換已經(jīng)成功用于分析數(shù)字圖像。不像小波變換,脊波變換過(guò)程首先計(jì)算積分在不同的方向和位置的數(shù)據(jù)。沿著“x1cos_ + x2sin_ = 常數(shù)” 一條線(xiàn)的脊波是不變的。在這些脊的

114、方向正交小波變換是一。最近脊波已成功應(yīng)用于圖像去噪。在本文中,我們結(jié)合dual-tree complex wavelet in the ridgelet transfo二元樹(shù)復(fù)小波的脊波變換中并將其應(yīng)用到圖像降噪。這種近似二元樹(shù)性能的復(fù)雜變性小波和良好性能的脊波使我們有更好的方法去圖像去噪。實(shí)驗(yàn)結(jié)果表明,采用二元樹(shù)復(fù)雜脊波在所有去噪圖像和許多不同噪音中我們的算法獲得較高的峰值信噪比(PSNR)。</p><p>

115、<b>  讀書(shū)的好處</b></p><p>  1、行萬(wàn)里路,讀萬(wàn)卷書(shū)。</p><p>  2、書(shū)山有路勤為徑,學(xué)海無(wú)涯苦作舟。</p><p>  3、讀書(shū)破萬(wàn)卷,下筆如有神。</p><p>  4、我所學(xué)到的任何有價(jià)值的知識(shí)都是由自學(xué)中得來(lái)的?!_(dá)爾文</p><p>  5、少壯不

116、努力,老大徒悲傷。</p><p>  6、黑發(fā)不知勤學(xué)早,白首方悔讀書(shū)遲?!佌媲?lt;/p><p>  7、寶劍鋒從磨礪出,梅花香自苦寒來(lái)。</p><p>  8、讀書(shū)要三到:心到、眼到、口到</p><p>  9、玉不琢、不成器,人不學(xué)、不知義。</p><p>  10、一日無(wú)書(shū),百事荒廢。——陳壽<

117、/p><p>  11、書(shū)是人類(lèi)進(jìn)步的階梯。</p><p>  12、一日不讀口生,一日不寫(xiě)手生。</p><p>  13、我撲在書(shū)上,就像饑餓的人撲在面包上。——高爾基</p><p>  14、書(shū)到用時(shí)方恨少、事非經(jīng)過(guò)不知難?!懹?lt;/p><p>  15、讀一本好書(shū),就如同和一個(gè)高尚的人在交談——歌德<

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論