版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、<p><b> 華中科技大學(xué)</b></p><p><b> 碩士學(xué)位論文</b></p><p> DNFS:一種面向Linux集群的可擴展分布式文件系統(tǒng)</p><p><b> 姓名:吳傳文</b></p><p><b> 申請學(xué)位級別
2、:碩士</b></p><p> 專業(yè):計算機系統(tǒng)結(jié)構(gòu)</p><p><b> 指導(dǎo)教師:曹強</b></p><p><b> 20090525</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> 摘</b&
3、gt;</p><p><b> 要*</b></p><p> 隨著信息技術(shù)革命的不斷深入,數(shù)字化信息的增長速度大于單個存儲設(shè)備的容</p><p> 量增加速度,特別是當(dāng)前高性能計算、數(shù)據(jù)中心和 Internet 服務(wù)等領(lǐng)域需要幾個到</p><p> 幾十個 PetaBytes 的存儲容量,這遠大于目前單個
4、存儲設(shè)備所能提供的。因此最為</p><p> 直接的思路是把多個存儲子系統(tǒng)集成到一個更大的系統(tǒng),構(gòu)造合適的分布式文件系</p><p> 統(tǒng)正是一種重要的實現(xiàn)方法。</p><p> 因此設(shè)計了一種分布式文件系統(tǒng) DNFS(Distributed Network File System),該系</p><p> 統(tǒng)可以統(tǒng)一管理多個存
5、儲結(jié)點,并能夠滿足高 I/O 性能、可擴展及高可用性等需求。</p><p> 進而實現(xiàn)了 DNFS 的原型系統(tǒng),該系統(tǒng)具備了并發(fā)控制、負載均衡、容錯和動</p><p> 態(tài)擴展等特征。DNFS 基于三方架構(gòu),由客戶端、元數(shù)據(jù)服務(wù)器和存儲模塊組成。</p><p> 通過一個兩級文件鎖,即客戶端鎖和元數(shù)據(jù)服務(wù)器端鎖來實現(xiàn)多個客戶端對同一文</p>
6、<p> 件并發(fā)訪問的控制;通過對系統(tǒng)各個存儲節(jié)點的負載進行監(jiān)控,再運用負載均衡調(diào)</p><p> 度策略來實現(xiàn)系統(tǒng)的負載均衡;容錯功能則是通過對文件進行備份來實現(xiàn)的,提高</p><p> 了系統(tǒng)的可用性;動態(tài)擴展功能則是通過讓系統(tǒng)中各個節(jié)點采用心跳協(xié)議來保持聯(lián)</p><p> 系,以此達到系統(tǒng)動態(tài)擴展的效果。</p>&l
7、t;p> 最后對 DNFS 文件系統(tǒng)從功能和性能兩個方面進行了測試和分析,前者著重驗</p><p> 證 DNFS 系統(tǒng)中的文件鎖機制,后者著重測試了 DNFS 在各種環(huán)境下的性能,以驗</p><p> 證 DNFS 在大讀寫請求下的高性能。實驗結(jié)果表明,DNFS 具有高可擴展性、負載</p><p> 均衡、并發(fā)控制及容錯等優(yōu)點,在實際應(yīng)用或者科
8、研環(huán)境中,具有較大的應(yīng)用前景</p><p><b> 和實用價值。</b></p><p> 關(guān)鍵詞:海量數(shù)據(jù)存儲,分布式文件系統(tǒng),可擴展性</p><p><b> *</b></p><p> 該項研究受國家重點基礎(chǔ)研究“973”計劃(2004CB318203)和國家自然科學(xué)基金“低熵
9、存儲系統(tǒng)(LESS)理論、</p><p> 方法和實現(xiàn)技術(shù)研究”( No. 60603075)的研究內(nèi)容資助</p><p><b> I</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> Abstract*</b></p><p>
10、With the development of the information technology, the growth of digital</p><p> information faster than the growth of individual storage devices’ capacity, especially in</p><p> high-perform
11、ance computing, data centers, Internet services and other areas which require</p><p> several or even dozens of PetaBytes storage capacity, and that is much larger than a single</p><p> storag
12、e device can be provided. Therefore, merging the multiple storage subsystems into a</p><p> larger system has become the most direct ways, and high-performance distributed file</p><p> system
13、is an important method to achieve that.</p><p> Therefore a distributed file system for mass storage features is designed, that is,</p><p> DNFS(Distributed Network File System), which can man
14、age multiple storage nodes unified,</p><p> and be able to meet the high I/O performance, scalability and high availability needs.</p><p> Then the prototype of DNFS is completed, which has th
15、e characteristics of concurrent</p><p> control, load balancing, fault tolerance and dynamic expansion. DNFS is a tripartite</p><p> structure, which contains the client, metadata server and s
16、torage-side component. Using a</p><p> two-lever lock, which is composed of the client lock and the metadata server-side lock,</p><p> DNFS can achieve concurrent control when multiple clients
17、 access the same files at the</p><p> same time; DNFS monitor the system load of all storage-side, and then use the load</p><p> balancing strategy to achieve the load balancing system; By bac
18、kup files, DNFS have fault-</p><p> tolerant features, which improve the availability of the system; Dynamic extensions feature</p><p> is achieve by allowing each node in the system using hea
19、rt-beat protocol to contact the</p><p><b> system.</b></p><p> Finally, the DNFS system is tested and analyzed from two aspects of functionality</p><p> and performan
20、ce. The former test focus on verification the file lock mechanism of DNFS</p><p> system. And the later focus on testing the performance of DNFS in variety environments,</p><p> to verify the
21、high-performance of DNFS under the big I/O request. The experimental</p><p> results show that, DNFS has the features of high scalability, load balancing, concurrency</p><p> control and fault
22、-tolerant, etc., and DNFS has great application prospects and practical</p><p> value in the practical application or research environment.</p><p> Key words: Mass storage, Distributed file sy
23、stem, Scalability</p><p><b> *</b></p><p> The research is supported by National Basic Research Program “973” program (2004CB318203) and National Natural</p><p> Scie
24、nce Fund (No. 60603075).</p><p><b> II</b></p><p><b> 獨創(chuàng)性聲明</b></p><p> 本人聲明所呈交的學(xué)位論文是我個人在導(dǎo)師指導(dǎo)下進行的研究工作及取得</p><p> 的研究成果。盡我所知,除文中已經(jīng)標明引用的內(nèi)容外,本論
25、文不包含任何其</p><p> 他個人或集體已經(jīng)發(fā)表或撰寫過的研究成果。對本文的研究做出貢獻的個人和</p><p> 集體,均已在文中以明確方式標明。本人完全意識到本聲明的法律結(jié)果由本人</p><p><b> 承擔(dān)。</b></p><p><b> 學(xué)位論文作者簽名:</b><
26、;/p><p><b> 日期:</b></p><p><b> 年</b></p><p><b> 月</b></p><p><b> 日</b></p><p> 學(xué)位論文版權(quán)使用授權(quán)書</p><
27、;p> 本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,即:學(xué)校有權(quán)</p><p> 保留并向國家有關(guān)部門或機構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借</p><p> 閱。本人授權(quán)華中科技大學(xué)可以將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進</p><p> 行檢索,可以采用影印、縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。</p
28、><p><b> 本論文屬于</b></p><p><b> 保密□,</b></p><p><b> 不保密□。</b></p><p><b> 在</b></p><p> 年解密后適用本授權(quán)書。</p>
29、;<p> (請在以上方框內(nèi)打“√”)</p><p><b> 學(xué)位論文作者簽名:</b></p><p><b> 指導(dǎo)教師簽名:</b></p><p><b> 日期:</b></p><p><b> 年</b></
30、p><p><b> 月</b></p><p><b> 日</b></p><p><b> 日期:</b></p><p><b> 年</b></p><p><b> 月</b></p&g
31、t;<p><b> 日</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> 1 緒論</b></p><p> 從二十世紀四十年代世界上誕生第一臺電子計算機開始,人類就在不斷使用信</p><p> 息技術(shù)改變著自身的生活生產(chǎn)方式,生產(chǎn)力獲得了飛躍
32、性的提高。如今雖然信息技</p><p> 術(shù)己經(jīng)獲得了巨大成功,但是隨著近年來信息革命的不斷深入,數(shù)字信息存儲量以</p><p> 指數(shù)規(guī)模增長,其增長速度遠大于單個存儲設(shè)備的容量增加速度,特別是高性能計</p><p> 算、數(shù)據(jù)中心和 Internet 服務(wù)領(lǐng)域需要幾個到幾十個 PetaBytes 的存儲容量,這遠大</p><p&
33、gt; 于單個存儲設(shè)備所能提供的。因此通過把多個存儲子系統(tǒng)集成到一個更大的系統(tǒng)就</p><p> 成為最為直接的思路,而高性能的分布式文件系統(tǒng)正是一種重要的實現(xiàn)方法。如何</p><p> 設(shè)計一種高效、可用性強及可擴展的分布式文件系統(tǒng)成為了一個非常有意義的課</p><p><b> 題。</b></p><p&
34、gt; 1.1 課題來源、目的與意義</p><p><b> 1.1.1</b></p><p><b> 課題來源</b></p><p> 本課題來源于由教育部信息存儲重點實驗室承擔(dān)的國家 973 項目“下一代互聯(lián)</p><p> 網(wǎng)信息存儲的組織模式和核心技術(shù)研究”中子課題三:“
35、海量數(shù)據(jù)網(wǎng)絡(luò)存儲系統(tǒng)的</p><p> 研究”(2004CB318203)以及國家自然科學(xué)基金“低熵存儲系統(tǒng)(LESS)理論、方</p><p> 法和實現(xiàn)技術(shù)研究”(No.60603075)的研究內(nèi)容之一。</p><p><b> 1.1.2</b></p><p><b> 課題目的及意義<
36、;/b></p><p> 隨著計算機處理器能力和計算機網(wǎng)絡(luò)互聯(lián)能力的高速發(fā)展,各種各樣的計算機</p><p> 應(yīng)用也得到蓬勃發(fā)展,而這些應(yīng)用產(chǎn)生的數(shù)據(jù)在整體上呈現(xiàn)出了指數(shù)級的增長。伴</p><p> 隨而來的,是各種大型應(yīng)用領(lǐng)域產(chǎn)生的對大數(shù)據(jù)量的需求[1],這些數(shù)據(jù)是無法容納</p><p> 在有限的主存空間中的,因此
37、必須把部分信息存儲在磁盤上,等到需要用到時再調(diào)</p><p> 入主存。由于讀寫磁盤的速度相對于處理器的運算速度相差好幾個數(shù)量級,因此大</p><p> 量的時間都被浪費在讀寫磁盤上面了,這種 I/O 性能與并行科學(xué)應(yīng)用所需要的高性</p><p> 能 I/O 相差甚遠[2]。此外,單個磁盤的容量有限,也無法存儲足夠的信息量。于是,</p>
38、<p> 利用多磁盤的并行讀寫來滿足 I/O 性能和容量上的需求便成了理所當(dāng)然的事[3-5]。</p><p> 作為計算機磁盤數(shù)據(jù)的管理者,文件系統(tǒng)對于系統(tǒng)的 I/O 能力有著重要的影</p><p><b> 1</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 響。假如單一
39、依賴操作系統(tǒng)所提供的本地文件系統(tǒng),應(yīng)用程序就無法利用集群系</p><p> 統(tǒng)來獲得理想的性能。這對于運行在集群系統(tǒng)上的 I/O 密集型應(yīng)用程序,I/O 操作</p><p> 將成為整個程序的瓶頸所在[6]。在集群系統(tǒng)中,每個節(jié)點都具有自己的 I/O 子系統(tǒng),</p><p> 因此集群系統(tǒng)擁有相當(dāng)大的 I/O 帶寬。為了讓資源能夠被充分利用,可以將應(yīng)用&
40、lt;/p><p> 程序的 I/O 請求分布到集群系統(tǒng)中的多個節(jié)點上,實現(xiàn)多個 I/O 的并發(fā)操作,通過</p><p> 將物理上獨立的多個存儲設(shè)備聚合為邏輯上單一的高性能存儲子系統(tǒng)來解決 I/O</p><p><b> 的瓶頸及容量問題。</b></p><p> 分布式文件系統(tǒng)是集群系統(tǒng)的文件管理者,具有大
41、容量,高 I/O 吞吐率,且可</p><p> 擴展的特點。它將多個物理上獨立的結(jié)點的磁盤組織成為全局統(tǒng)一的存儲系統(tǒng),提</p><p> 供更大的存儲容量和聚合 I/O 帶寬,并可以隨著系統(tǒng)規(guī)模的擴大縮小而變化。國內(nèi)</p><p> 外許多研究人員已經(jīng)開始研究分布式文件系統(tǒng),以支持 I/O 密集型應(yīng)用,充分發(fā)揮</p><p>&
42、lt;b> 集群的優(yōu)勢[7]。</b></p><p> DNFS(Distributed Network File System)正是在這樣的背景下被研究開發(fā)的。</p><p> DNFS 是一種分布式文件系統(tǒng),是為應(yīng)對 I/O 密集型應(yīng)用而開發(fā)的,該系統(tǒng)能夠滿</p><p> 足高 I/O 性能、海量容量、可擴展及高可用性等需求[8
43、-12],具備了并發(fā)控制、負載均</p><p> 衡、容錯和動態(tài)擴展等特征,實驗證明 DNFS 可適用于高 I/O 性能科學(xué)計算環(huán)境。</p><p><b> 1.2 國內(nèi)外概況</b></p><p> 分布式文件系統(tǒng)是一個比較活躍的研究方向,現(xiàn)國內(nèi)外很多大學(xué)及研究機構(gòu)還</p><p> 有公司等都已經(jīng)或
44、正著手開發(fā)自己的分布式文件系統(tǒng)以支持那些 I/O 密集型應(yīng)用,</p><p> 以此來發(fā)揮集群系統(tǒng)的優(yōu)勢。近年來,美國,澳大利亞,日本等多個國家的大學(xué)已</p><p> 經(jīng)研究出一片各具特色的分布式文件系統(tǒng)。一些計算機廠家也開發(fā)了自己的分布式</p><p> 文件系統(tǒng),這些系統(tǒng)一般為專用文件系統(tǒng),多為運行在特定的 UNIX 操作系統(tǒng)之上</p>
45、;<p> 的工作站或并行計算機。而開源社區(qū)中也開發(fā)出了一批可運行于 Linux 操作系統(tǒng)之</p><p> 上的分布式文件系統(tǒng),正是這些開源項目大大促進了分布式文件系統(tǒng)的發(fā)展與應(yīng)</p><p> 用。現(xiàn)有的各種分布式文件系統(tǒng)各具特色,各有各的優(yōu)勢,各有各的側(cè)重點?,F(xiàn)已</p><p> 涌現(xiàn)出一批著名的分布式文件系統(tǒng),如 PVFS、GPF
46、S[13]、zFS[14]、Google 文件系統(tǒng)[15]、</p><p> Lustre 等等[16-20],下面將著重介紹 PVFS 和 Lustre 這兩種分布式文件系統(tǒng)。</p><p><b> 2</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 1.2.1 PVFS</p
47、><p> PVFS[21-24](Parallel Virtual File System)項目是 Clemson 大學(xué)為了運行 Linux 集群</p><p> 而創(chuàng)建的一個開源項目,因此,PVFS 也無需特別的硬件設(shè)備,普通的能運行 Linux</p><p> 系統(tǒng)的 PC 機即可。PVFS 現(xiàn)已被廣泛地使用,很多分布式文件系統(tǒng)都是以 PVFS 為<
48、;/p><p> 基礎(chǔ)架構(gòu)而設(shè)計實現(xiàn)的[25],比如國內(nèi)的浪潮并行文件系統(tǒng)。</p><p> 正如一般的分布式文件系統(tǒng)一樣,PVFS 將數(shù)據(jù)存儲到多個群集節(jié)點中,數(shù)據(jù)</p><p> 保存在這些節(jié)點的本地文件系統(tǒng)之中,然后多個客戶端可以并行同時訪問這些數(shù)</p><p> 據(jù)。PVFS 有以下 4 個重要功能:</p>
49、<p> (1)命名空間的一致性:為了易于安裝和使用,PVFS 提供了統(tǒng)一的文件命名</p><p><b> 空間。</b></p><p> (2)文件的數(shù)據(jù)分散分布到不同的集群節(jié)點的本地磁盤之上:為高速訪問集</p><p> 群系統(tǒng)中的文件數(shù)據(jù),PVFS 將文件數(shù)據(jù)進行條塊化劃分,分散存儲到不同集群節(jié)</p>
50、;<p> 點(稱作 I/O 節(jié)點,如圖 1.1 所示)的多個磁盤上,從而消除了單個 I/O 路徑的帶</p><p> 來的瓶頸問題,且增加了客戶端并發(fā)帶寬。</p><p> ?。?)兼容現(xiàn)有系統(tǒng)上的文件訪問方式:在已安裝 PVFS 文件和目錄能夠繼續(xù)</p><p> 使用現(xiàn)有 Linux 系統(tǒng)上的命令和工具,比如 ls、cat、dd 和
51、rm 等等,方便用戶的使</p><p> 用。該功能由 Linux 核心的一個模塊提供支持。</p><p> ?。?)為應(yīng)用程序提供高性能的數(shù)據(jù)訪問方式:PVFS 還提供了 libpvfs 庫,以</p><p> 專有接口來訪問 PVFS 文件系統(tǒng)。而 libpvfs 庫直接和 PVFS 服務(wù)器相連接,不需要</p><p> 把
52、消息傳遞給內(nèi)核,這樣提高了訪問效率。</p><p><b> 管理節(jié)點</b></p><p><b> MGR</b></p><p><b> CN0</b></p><p><b> N</b></p><p>&l
53、t;b> 計算節(jié)點</b></p><p><b> CN1</b></p><p><b> CNn</b></p><p><b> E</b></p><p><b> T</b></p><p>
54、<b> W</b></p><p><b> O</b></p><p><b> R</b></p><p><b> K</b></p><p><b> ION0</b></p><p>&l
55、t;b> I/O節(jié)點</b></p><p><b> ION1</b></p><p><b> IONn</b></p><p><b> 圖 1.1</b></p><p> PVFS 系統(tǒng)結(jié)構(gòu)圖</p><p><
56、;b> 3</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> PVFS 系統(tǒng)是一個 3 方架構(gòu):計算節(jié)點、管理節(jié)點和 I/O 節(jié)點,如圖 1.1 所示。</p><p> 其中,計算節(jié)點的功能運行應(yīng)用程序,發(fā)起 PVFS 的 I/O 請求;管理節(jié)點的功能是</p><p> 管理元數(shù)據(jù),接受并調(diào)
57、度計算節(jié)點的 I/O 請求;I/O 節(jié)點的功能是存放 PVFS 文件系</p><p> 統(tǒng)中的文件數(shù)據(jù),所有文件數(shù)據(jù)的讀寫都要與 I/O 節(jié)點打交道。</p><p> PVFS 系統(tǒng)中有且只有一個管理節(jié)點,一個或者多個計算節(jié)點和 I/O 節(jié)點。PVFS</p><p> 集群中任意一個集群節(jié)點既可以只提供 3 方架構(gòu)中的其中一種功能,也可以提供</p
58、><p> 同時提供 2 種或者 3 種功能。計算節(jié)點也同時用來做管理節(jié)點,也可以充當(dāng) I/O</p><p> 節(jié)點的角色,反之亦然。對于小規(guī)模的集群系統(tǒng),這種功能重疊的方法可以節(jié)省</p><p> 開支,充分利用資源;對于大規(guī)模集群系統(tǒng),則一般不推薦使用這種功能重疊的</p><p> 方法,因為功能重疊會使機器過于繁忙,從而導(dǎo)致性
59、能下降,一般是一個節(jié)點只</p><p><b> 充當(dāng)一個角色。</b></p><p> PVFS 還存在以下不足:</p><p> (1)單一管理節(jié)點。上面說到過 PVFS 中只有一個管理節(jié)點來管理元數(shù)據(jù),</p><p> 當(dāng)集群系統(tǒng)達到一定的規(guī)模之后,管理節(jié)點將可能出現(xiàn)過度繁忙的情況,這是管理<
60、/p><p> 節(jié)點將成為系統(tǒng)瓶頸。</p><p> ?。?)對數(shù)據(jù)的存儲缺乏容錯機制。當(dāng)某一 I/O 節(jié)點無法工作時,上面的數(shù)據(jù)將</p><p><b> 出現(xiàn)不可用的情況。</b></p><p> ?。?)靜態(tài)配置。對 PVFS 的配置只能在啟動前進行,一旦系統(tǒng)運行則不可再</p><p&g
61、t;<b> 更改原先的配置。</b></p><p><b> 1.2.2</b></p><p><b> Lustre</b></p><p> Lustre[26-28]文件系統(tǒng)是一個基于對象存儲的分布式文件系統(tǒng),并且與 PVFS 一</p><p> 樣,L
62、ustre 也是一個開源項目。Lustre 項目與 1999 年在 Carnegie Mellon University</p><p> 啟動,現(xiàn)在已經(jīng)發(fā)展成為應(yīng)用最廣泛的分布式文件系統(tǒng)。Lustre 已經(jīng)運行在當(dāng)今世</p><p> 界上最快的集群系統(tǒng)里面,比如 Bule Gene,Red Storm 等計算機系統(tǒng),用來進行核</p><p> 武器相關(guān)
63、的模擬,以及分子動力學(xué)模擬等等非常關(guān)鍵的領(lǐng)域[28]。</p><p> Lustre 的組織結(jié)構(gòu)在其官方文檔中有詳細的介紹,如圖 1.2 所示,Lustre 集群組</p><p> 件包含了 MDS(元數(shù)據(jù)服務(wù)器)、MDT(元數(shù)據(jù)存儲節(jié)點)、OSS(對象存儲服務(wù)</p><p> 器)、OST(對象存儲節(jié)點)、Client(客戶端),以及連接這些組件的高速
64、網(wǎng)絡(luò)。</p><p> ?。?)元數(shù)據(jù)存儲與管理。MDS 負載管理元數(shù)據(jù),提供一個全局的命名空間,</p><p><b> 4</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> Client 可以通過 MDS 讀取到保存于 MDT 之上的元數(shù)據(jù)。在 Lustre 中 MDS 可以</p
65、><p> 有 2 個,采用了 Active-Standby 的容錯機制,當(dāng)其中一個 MDS 不能正常工作時,</p><p> 另外一個后備 MDS 可以啟動服務(wù)。MDT 只能有 1 個,不同 MDS 之間共享訪問同</p><p><b> 一個 MDT。</b></p><p> ?。?)文件數(shù)據(jù)存儲與管理。OS
66、S 負載提供 I/O 服務(wù),接受并服務(wù)來自網(wǎng)絡(luò)的</p><p> 請求。通過 OSS,可以訪問到保存在 OST 上的文件數(shù)據(jù)。一個 OSS 對應(yīng) 2 到 8 個</p><p> OST,其存儲空間可以高達 8TB。OST 上的文件數(shù)據(jù)是以分條的形式保存的,文件</p><p> 的發(fā)條可以在一個 OSS 之中,也可以保存在多個 OSS 中。Lustre 的
67、特色之一是其</p><p> 數(shù)據(jù)是基于對象的職能存儲的,跟傳統(tǒng)的基于塊的存儲方式有所不同。</p><p> ?。?)Lustre 系統(tǒng)訪問入口。Lustre 通過 Client 端來訪問系統(tǒng),Client 為掛載了</p><p> Lustre 文件系統(tǒng)的任意節(jié)點。Client 提供了 Linux 下 VFS(虛擬文件系統(tǒng))與 Lustre</p&
68、gt;<p> 系統(tǒng)之間的接口,通過 Client,用戶可訪問操作 Lustre 系統(tǒng)中的文件。</p><p> Lustre 集群中的各個節(jié)點通過高速的以太網(wǎng)或 Quadrics Elan,Myrinet 等多種網(wǎng)</p><p><b> 絡(luò)連接起來。</b></p><p><b> 圖 1.2</
69、b></p><p> Lustre 集群架構(gòu)</p><p><b> 5</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> Clients</b></p><p><b> 目錄操作,</b></p&
70、gt;<p><b> 文件打開/關(guān)閉,</b></p><p><b> 元數(shù)據(jù),</b></p><p><b> 并發(fā)控制</b></p><p><b> 文件內(nèi)容I/O</b></p><p><b> 及文件鎖
71、</b></p><p><b> MDS</b></p><p><b> 恢復(fù),文件狀</b></p><p><b> 態(tài)和文件創(chuàng)建</b></p><p><b> 圖 1.3</b></p><p>
72、 Lustre 文件系統(tǒng)架構(gòu)</p><p><b> OSS</b></p><p> 在 Lustre 官方手冊中給出了 Lustre 文件系統(tǒng)的架構(gòu),如圖 1.3 所示。Lustre 文</p><p> 件系統(tǒng)也是一個 3 方架構(gòu),包括了 MDS,OSS 和 Client 這 3 個模塊。文件的打開</p><
73、p> ?。╫pen)和關(guān)閉(close),元數(shù)據(jù),以及并發(fā)訪問控制都在 Client 和 MDS 之間進行;</p><p> 文件 I/O 操作以及文件鎖在 OSS 和 Client 之間進行;文件備份,文件狀態(tài)獲取以及</p><p> 文件創(chuàng)建等在 MDS 和 OSS 之間進行。目前 Lustre 文件系統(tǒng)最多可以支持 100000</p><p>
74、 個 Client,1000 個 OSS 和 2 個 MDS 節(jié)點。</p><p> 同 PVFS 類似,Lustre 系統(tǒng)中既可以運行一個功能模塊,也可以同時運行 2 個</p><p> 或 3 個功能模塊,這取決于系統(tǒng)的規(guī)模。不過 Lustre 一般運行于高性能計算機系統(tǒng)</p><p> 之上,為了提高 Lustre 文件系統(tǒng)的性能,通常 MDS,
75、OSS 和 Client 是分開運行在 Lustre</p><p><b> 不同的節(jié)點之上的。</b></p><p> 實驗與應(yīng)用已經(jīng)證明,Lustre 文件系統(tǒng)的性能和可擴展性都不錯。不僅如此,</p><p> Lustre 文件系統(tǒng)還擁有基于對象的智能化存儲、安全的認證機制、比較完善的容錯</p><p&g
76、t; 機制等的優(yōu)點,值得注意的是,Lustre 還實現(xiàn)了部分文件鎖。Lustre 確保從不同 Client</p><p> 端掛載的 Lustre 文件系統(tǒng)看到的都是一個單一的、同步的、一致的命名空間。由于</p><p> Lustre 部分鎖機制的存在,多個 Client 端在同一時間點可以寫同一文件的不同區(qū)域,</p><p> 其它 Client
77、則可以讀取文件的其它區(qū)域。由于部分文件鎖的存在,極大的提高了多</p><p> 用戶對同一文件進行并發(fā)訪問時系統(tǒng)的性能,對同一文件并發(fā)訪問這在像數(shù)據(jù)庫這</p><p><b> 6</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 種應(yīng)用里是極為常見的。</p><p&
78、gt; 相對與 PVFS,Lustre 的可用性和擴展性以及性能上都有較大的提高。然而,Lustre</p><p> 需要特殊設(shè)備的支持,并且 Lustre 目前還沒實現(xiàn) MDS 的集群管理,雖然相比 PVFS</p><p> 的單 MDS,Lustre 的雙 MDS 在可用性上還是提高不少,但是當(dāng)系統(tǒng)達到一定的規(guī)</p><p> 模之后,MDS 還是
79、很有可能成為 Lustre 系統(tǒng)中的瓶頸[29]。</p><p> 1.3 本文主要研究內(nèi)容</p><p> ?。?)本文著重研究了分布式文件系統(tǒng)的體系結(jié)構(gòu),設(shè)計思想與實現(xiàn)技術(shù),并</p><p> 給出自己的解決方案——DNFS(Distribution Network FileSystem)。DNFS 是針對在</p><p>
80、 海量數(shù)據(jù)下實現(xiàn)高性能 I/O 而設(shè)計的,在 DNFS 平臺下,設(shè)計新的數(shù)據(jù)索引機制和</p><p> 算法,新的文件鎖機制,容災(zāi)冗余機制,緩存機制。最后通過實際的實驗測試,對</p><p> 其功能及性能等做出評估。</p><p> ?。?)詳細論述了 DNFS 的系統(tǒng)架構(gòu)的各個模塊,及實現(xiàn)系統(tǒng)的關(guān)鍵技術(shù)。介</p><p>
81、紹了系統(tǒng)中的各個模塊——元數(shù)據(jù)服務(wù)器,存儲端和客戶端,以及這些模塊的特征</p><p> 和在系統(tǒng)中所起到的作用,還有實現(xiàn)這些模塊所用到的各個關(guān)鍵技術(shù)。</p><p> ?。?)論述 DNFS 的設(shè)計思想及技術(shù)實現(xiàn)。詳細介紹 DNFS 系統(tǒng)中的各種機制,</p><p> 有緩存機制,文件鎖機制,負載均衡機制、動態(tài)擴展機制等等,以及實現(xiàn)這些機制</p&
82、gt;<p><b> 的具體方法。</b></p><p> (4)DNFS 系統(tǒng)的功能測試與性能測試,以及對 DNFS 的評價。</p><p> 針對以上研究內(nèi)容,本文將圍繞分布式文件系統(tǒng)的設(shè)計與實現(xiàn)兩個方面展開論</p><p><b> 述,具體安排如下:</b></p>&l
83、t;p> 第一章主要介紹了研究工作的背景,國內(nèi)外概況;</p><p> 第二章介紹了 DNFS 的系統(tǒng)架構(gòu)及關(guān)鍵技術(shù);</p><p> 第三章詳細討論了 DNFS 的設(shè)計思想與實現(xiàn)方案;</p><p> 第四章對 DNFS 平臺進行功能和性能測試與分析。</p><p> 第五章是對現(xiàn)有工作的總結(jié)和未來研究的展望。<
84、;/p><p><b> 7</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> 2</b></p><p> DNFS 系統(tǒng)架構(gòu)及關(guān)鍵技術(shù)</p><p> 并發(fā)I/O,海量存儲和可擴展性等特征決定了分布式文件系統(tǒng)架構(gòu)與傳統(tǒng)的文件</p
85、><p> 系統(tǒng)架構(gòu)有著很大的不同。本章將介紹DNFS的系統(tǒng)架構(gòu),以及DNFS中使用到的相</p><p> 關(guān)技術(shù)和工具的作用,原理及使用方法。</p><p><b> 2.1 系統(tǒng)結(jié)構(gòu)</b></p><p> 文件系統(tǒng)是用于管理數(shù)據(jù)的,一般的本地文件系統(tǒng)(比如Ext3)主要任務(wù)就</p><
86、;p> 是管理本地磁盤上的文件。雖然分布式文件系統(tǒng)與傳統(tǒng)的本地文件系統(tǒng)的任務(wù)基</p><p> 本相同,但由于其分布式的文件組織方式,導(dǎo)致任務(wù)的執(zhí)行方式有很大的區(qū)別。分</p><p> 布式文件系統(tǒng)是建立在本地文件系統(tǒng)之上的,其功能主要有兩個:</p><p> (1)把文件的數(shù)據(jù)在物理上拆分成多個分條,并分布到多個存儲設(shè)備上去,</p>
87、;<p> 而具體存儲設(shè)備上分條數(shù)據(jù)的管理則由該存儲設(shè)備上的本地文件系統(tǒng)來負責(zé);</p><p> (2)提供并行訪問文件的方法。這有區(qū)別于傳統(tǒng)的本地文件系統(tǒng)的串行訪問</p><p><b> 方法。</b></p><p> 其中,前者是后者的基礎(chǔ),只有有了合理的數(shù)據(jù)發(fā)布機制,才有后面高效的訪</p>&
88、lt;p><b> 問機制。</b></p><p> 分析以上分布式文件系統(tǒng)的功能,,首先,由于數(shù)據(jù)在存儲設(shè)備上的管理已經(jīng)</p><p> 交給本地文件系統(tǒng)來負責(zé)了,所以管理磁盤,以及數(shù)據(jù)在磁盤上的元信息等可以通</p><p> 過借用本地文件系統(tǒng)輕松獲得。其次,對于比本地文件系統(tǒng)多出的文件分條信息,</p>
89、<p> 還需要分布式文件系統(tǒng)自己來記錄。事實上,隨著功能的增加,分布式文件系統(tǒng)需</p><p> 要記錄的遠遠不止文件的分條信息,這些信息稱為元數(shù)據(jù)。另外,無論是傳統(tǒng)的基</p><p> 于本地磁盤的文件系統(tǒng)還是分布式文件系統(tǒng),都需要提供應(yīng)用程序訪問文件系統(tǒng)的</p><p> 入口[30-32]。</p><p>
90、 根據(jù)上面分析,分布式文件系統(tǒng)應(yīng)該至少劃分為三個功能模塊:保存管理文件</p><p> 數(shù)據(jù)的模塊;保存管理元數(shù)據(jù)的模塊;還有提供文件系統(tǒng)訪問入口的模塊[33-35]。在</p><p> DNFS中,保存管理文件分條數(shù)據(jù)的存儲設(shè)備稱為存儲端STG(Storage-side)。保</p><p> 存管理文件分條等元數(shù)據(jù)的模塊稱為元數(shù)據(jù)服務(wù)器MDS(Meta
91、data Server)。而提</p><p> 供文件系統(tǒng)訪問入口的則稱為客戶端(CLIENT)。事實上,分布式文件系統(tǒng)中還</p><p><b> 8</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 應(yīng)該有一個集群管理者CM(Cluster Manager),負責(zé)系統(tǒng)的配置等其他事務(wù)。
92、為了</p><p> 提高DNFS文件系統(tǒng)的性能,通常CLIENT、STG和MDS是分離的,當(dāng)然這些子系統(tǒng)</p><p> 也能運行在同一個系統(tǒng)中。</p><p><b> 用戶A</b></p><p><b> 用戶B</b></p><p><b&g
93、t; CLIENT</b></p><p><b> ......</b></p><p><b> CLIENT</b></p><p><b> 計算</b></p><p><b> 節(jié)點</b></p><
94、p><b> 高</b></p><p><b> 速</b></p><p><b> 網(wǎng)</b></p><p><b> FUSE</b></p><p><b> RPC協(xié)議</b></p>&l
95、t;p><b> FUSE</b></p><p><b> RPC協(xié)議</b></p><p><b> 絡(luò)</b></p><p><b> MDS (CM)</b></p><p><b> Reiserfs</b&g
96、t;</p><p><b> 管理</b></p><p><b> 節(jié)點</b></p><p><b> 存儲</b></p><p><b> 節(jié)點</b></p><p><b> Ext3</b
97、></p><p><b> STG</b></p><p><b> Ext3</b></p><p><b> ......</b></p><p><b> STG</b></p><p><b>
98、Ext3</b></p><p><b> 圖 2.1</b></p><p> DNFS 的系統(tǒng)結(jié)構(gòu)</p><p><b> 2.1.1</b></p><p><b> 系統(tǒng)功能模塊</b></p><p> 圖2.1中顯示了
99、DNFS的系統(tǒng)結(jié)構(gòu),從功能角度劃分,DNFS主要包括三個模塊:</p><p> 元數(shù)據(jù)服務(wù)器(MDS)、存儲端(STG),以及客戶端(Client)。各個模塊之間</p><p> 采用RPC協(xié)議進行通信,關(guān)于RPC協(xié)議,在2.3節(jié)有詳細介紹。下面介紹各個模塊在</p><p> 系統(tǒng)中的功能及作用。</p><p> 1)元數(shù)據(jù)服
100、務(wù)器是一個應(yīng)用層進程,運行于Linux之上。元數(shù)據(jù)服務(wù)器借助了</p><p> Reiserfs文件系統(tǒng)來保存管理元數(shù)據(jù),這主要是因為元數(shù)據(jù)文件絕大部分都是小于1K</p><p> 的小文件,而Reiserfs文件系統(tǒng)在小文件存儲方面的性能無疑是相當(dāng)杰出的,關(guān)于</p><p><b> 9</b></p><p&
101、gt; 華中科技大學(xué)碩士學(xué)位論文</p><p> Reiserfs文件系統(tǒng),將在下面的章節(jié)中詳細介紹。在前面的分析中,提到了分布式文</p><p> 件系統(tǒng)一般還包括一個集群管理者CM,在DNFS中,集群管理者的功能并入元數(shù)據(jù)</p><p> 服務(wù)器中了,如圖2.1中所示。因此,元數(shù)據(jù)服務(wù)器不僅管理系統(tǒng)的元數(shù)據(jù),它同時</p><p
102、> 還承擔(dān)起集群管理者的責(zé)職。在本文后面所有提到的元數(shù)據(jù)服務(wù)器的地方,除非特</p><p> 別說明,否則都是指包括了集群管理者功能在內(nèi)的元數(shù)據(jù)服務(wù)器。元數(shù)據(jù)服務(wù)器在</p><p> 系統(tǒng)中發(fā)揮著以下作用:</p><p> ?。?)實現(xiàn)的文件系統(tǒng)的語義功能。元數(shù)據(jù)服務(wù)器負責(zé)保存和管理DNFS系統(tǒng)中</p><p> 所有文
103、件(包括目錄)的元數(shù)據(jù),通過元數(shù)據(jù)服務(wù)器,客戶端可以看到一個統(tǒng)一的</p><p> 命名空間;通過元數(shù)據(jù)服務(wù)器,能控制客戶端對文件系統(tǒng)中文件的創(chuàng)建、刪除、讀</p><p><b> 寫等訪問控制。</b></p><p> ?。?)元數(shù)據(jù)服務(wù)器管理DNFS中文件的分條。從客戶端寫入DNFS系統(tǒng)的文件</p><p&g
104、t; 如何分條,各個分條的存放策略,都是由元數(shù)據(jù)服務(wù)器決定的。</p><p> ?。?)元數(shù)據(jù)服務(wù)器還維護DNFS中文件的一致性。通過鎖機制,元數(shù)據(jù)服務(wù)器</p><p> 控制了多個客戶端對同一文件的并發(fā)訪問,保證了在任何時候,DNFS中文件都是</p><p><b> 正確一致的。</b></p><p>
105、 ?。?)文件備份也要通過元數(shù)據(jù)服務(wù)器。元數(shù)據(jù)服務(wù)器告訴存儲端如何把未備</p><p> 份的文件備份到何處。</p><p> ?。?)元數(shù)據(jù)服務(wù)器還控制存儲端之間負載均衡,通過監(jiān)控存儲端的負載情況,</p><p> 實現(xiàn)了不同存儲端之間的負載均衡。</p><p> (6)元數(shù)據(jù)服務(wù)器實現(xiàn)了系統(tǒng)的動態(tài)擴展,當(dāng)DNFS需要擴大規(guī)模
106、時,只需把</p><p> 存儲端直接接入存儲網(wǎng)絡(luò)即可,元數(shù)據(jù)服務(wù)器會自動把新加入的存儲端融入到原有</p><p><b> 的系統(tǒng)中</b></p><p> (7)全局配置與監(jiān)控的作用。當(dāng)新客戶端或新存儲端接入到DNFS系統(tǒng)中時,</p><p> 都需要從元數(shù)據(jù)服務(wù)器那里獲取系統(tǒng)的配置信息。此后,元數(shù)據(jù)
107、服務(wù)器會定期檢查</p><p> 客戶端和存儲端的狀態(tài)。</p><p> 2)存儲端也是一個應(yīng)用層進程,運行于Linux之上。首先,存儲端負責(zé)DNFS</p><p> 中所有文件數(shù)據(jù)的存儲。DNFS中文件是用分條的形式保存的,所以存儲端保存的</p><p> 實際是文件的分條。存儲端借助了Ext3文件系統(tǒng)來保存每個文件的分條,
108、原因主要</p><p> 是考慮到了Ext3文件系統(tǒng)在Linux下的廣泛使用及其高效的性能,關(guān)于Ext3的詳細信</p><p> 息,將在后面章節(jié)詳細介紹。</p><p><b> 10</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 其次,存儲端直接與客戶端
109、進行關(guān)于文件內(nèi)容的I/O操作。DNFS中,允許存儲</p><p> 端被客戶端直接訪問??蛻舳送ㄟ^元數(shù)據(jù)服務(wù)器得到文件的元數(shù)據(jù)(包括了文件所</p><p> 有分條保存在哪些存儲端等信息)之后,直接與文件所在的分條建立連接,此后對</p><p> 該文件的I/O操作就在客戶端同存儲端之間進行,除非有對命名空間的修改,否則將</p><
110、p> 不再同元數(shù)據(jù)服務(wù)器通行,這樣就降低了元數(shù)據(jù)服務(wù)器的負載。</p><p> 接著,存儲端還有自我負載監(jiān)控的功能。存儲端不斷監(jiān)控自己的負載狀況,包</p><p> 括處理器,磁盤I/O速率,網(wǎng)絡(luò)I/O速率等,并通過心跳協(xié)議發(fā)送給元數(shù)據(jù)服務(wù)器,</p><p> 以便元數(shù)據(jù)服務(wù)器通過調(diào)度來實現(xiàn)DNFS的負載均衡。</p><p&
111、gt; 最后,存儲端還進行容災(zāi)備份。數(shù)據(jù)備份在不同存儲端之間進行。在存儲端獲</p><p> 知數(shù)據(jù)要保存到哪個存儲端之后(這些信息是通過元數(shù)據(jù)服務(wù)器得到的),直接與</p><p> 該存儲端建立連接,然后備份數(shù)據(jù)。</p><p> 3)DNFS客戶端是DNFS文件系統(tǒng)的訪問入口。客戶端運行在Linux操作系統(tǒng)之</p><p>
112、; 上,在Linux中,訪問文件系統(tǒng)的I/O請求需要通過VFS(Virtual FileSystem)層,由</p><p> VFS把用戶發(fā)來的I/O請求轉(zhuǎn)發(fā)給具體的文件系統(tǒng)。所以,想要在Linux上實現(xiàn)一個</p><p> 文件系統(tǒng),就必須提供該文件系統(tǒng)和VFS的接口。在DNFS中,該功能借助了FUSE</p><p> ?。‵ilesystem in
113、Userspace)來實現(xiàn)。FUSE也是一款開源免費軟件,可以自由下載安</p><p> 裝,后面將介紹更多關(guān)于FUSE的信息。由于一般Linux發(fā)行版沒有自帶FUSE,需要</p><p><b> 額外安裝FUSE。</b></p><p> 客戶端通過FUSE實現(xiàn)了標準的VFS接口,因此只要客戶端掛載了DNFS文件</p&g
114、t;<p> 系統(tǒng),用戶就可以通過標準的POSIX接口來訪問DNFS文件系統(tǒng),像一般Linux上</p><p> 的工具都可以使用,比如cat,dd,rm等等。并且由于FUSE,客戶端運行于用戶態(tài)</p><p> 空間??蛻舳耸荄NFS系統(tǒng)I/O請求的發(fā)起者,用戶都是通過客戶端來訪問DNFS文</p><p><b> 件系統(tǒng)的。
115、</b></p><p> 圖2.2顯示了DNFS系統(tǒng)中各個功能模塊之間的文件I/O流。首先,客戶端和元數(shù)</p><p> 據(jù)服務(wù)器之間的文件I/O流包括了目錄操作、文件打開與關(guān)閉、文件的元數(shù)據(jù)訪問,</p><p> 以及多個客戶端同時訪問同一文件時的并發(fā)控制,還有元數(shù)據(jù)服務(wù)器對客戶端所進</p><p> 行的狀態(tài)監(jiān)
116、控。其次,客戶端和存儲端之間的I/O流包括了對文件內(nèi)容的讀寫,即客</p><p> 戶端可以直接寫入數(shù)據(jù)到存儲端上,也可以直接從存儲端獲取文件的內(nèi)容。最后,</p><p> 元數(shù)據(jù)服務(wù)器和存儲端之間的文件I/O包括了保持各個存儲端之間負載均衡的所進行</p><p> 的通訊,以及進行文件容錯備份所進行的通訊。</p><p>&l
117、t;b> 11</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p><b> 客戶端</b></p><p><b> 目錄操作,</b></p><p><b> 文件打開/關(guān)閉,</b></p><p>&
118、lt;b> 元數(shù)據(jù)訪問,</b></p><p><b> 并發(fā)控制,</b></p><p><b> 狀態(tài)監(jiān)控</b></p><p><b> 文件內(nèi)容I/O</b></p><p><b> 2.1.2</b></
119、p><p><b> 元數(shù)據(jù)服務(wù)器</b></p><p><b> 系統(tǒng)硬件結(jié)構(gòu)</b></p><p><b> 圖 2.2</b></p><p><b> 負載均衡,</b></p><p><b> 容錯備
120、份,</b></p><p> DNFS 各功能模塊之間文件 I/O 流</p><p><b> 存儲端</b></p><p> 如圖2.1所示。DNFS系統(tǒng)的硬件主要分為四個部分:管理節(jié)點、存儲節(jié)點和計</p><p> 算節(jié)點以及互連這些節(jié)點的高速網(wǎng)絡(luò)。管理節(jié)點之上運行了元數(shù)據(jù)服務(wù)器和集群管&
121、lt;/p><p> 理者這兩個個功能模塊。存儲節(jié)點上運行了DNFS系統(tǒng)中的存儲端模塊。計算節(jié)點</p><p> 則主要運行的是DNFS中的客戶端模塊。高速網(wǎng)絡(luò)則是用于把以上三中節(jié)點互連起</p><p> 來,實現(xiàn)各個節(jié)點間互相通信的一個媒介。</p><p> 與PVFS類似,DNFS也是為運行在廉價的Linux集群系統(tǒng)[36]之上
122、而開發(fā)的,因此,</p><p> DNFS系統(tǒng)對硬件的要求很低。DNFS系統(tǒng)中的計算節(jié)點,管理節(jié)點和存儲節(jié)點均為</p><p> 安裝了Linux操作系統(tǒng)的普通PC機即可,各個節(jié)點之間的高速網(wǎng)絡(luò)一般也需千兆以</p><p> 太網(wǎng)設(shè)備(如果只是用于實驗,百兆甚至更低的以太網(wǎng)設(shè)備也是可以的)。</p><p> 在目前的DNFS系
123、統(tǒng)中,只有一個管理節(jié)點,未來視需要可能會實現(xiàn)為多管理</p><p> 節(jié)點。相對存儲節(jié)點和計算節(jié)點,管理節(jié)點的機器最好是處理器處理能力較強,內(nèi)</p><p> 存交大的機器。存儲節(jié)點的數(shù)量則理論上沒有限制,限于實驗環(huán)境有限,目前只嘗</p><p> 試過最多24個存儲節(jié)點。計算節(jié)點的數(shù)量也沒有限制,可以根據(jù)需要連入DNFS系</p><
124、;p><b> 統(tǒng)。</b></p><p> 管理節(jié)點,存儲節(jié)點以及計算節(jié)點是可以共同運行在同一臺機器上的,但為了</p><p><b> 12</b></p><p> 華中科技大學(xué)碩士學(xué)位論文</p><p> 性能達到最優(yōu),不推薦這樣做,一般是一臺機器只運行一種節(jié)點的一個副
125、本,且存</p><p> 儲節(jié)點一般不少于計算節(jié)點,有關(guān)DNFS系統(tǒng)性能方面的內(nèi)容,將在第4章詳細介紹。</p><p><b> 2.2</b></p><p><b> VFS 接口實現(xiàn)</b></p><p> 前面講到過,在DNFS客戶端運行于Linux操作系統(tǒng)之上,而在Linux
126、下,要實現(xiàn)</p><p> 自己的文件系統(tǒng),就必須提供與虛擬文件系統(tǒng)VFS打交道的接口[37]。在DNFS中,正</p><p> 是借助了FUSE(Filesystem in Userspace)完成了這樣一個功能。FUSE是DNFS用到</p><p><b> 的關(guān)鍵技術(shù)之一。</b></p><p>
127、FUSE提供了一組簡單的接口,為用戶態(tài)程序提供了Linux內(nèi)核的虛擬文件系統(tǒng)。</p><p> 正如FUSE名字上所說的——Filesystem in Userspace,F(xiàn)USE創(chuàng)建的文件系統(tǒng)是在用</p><p> 戶空間運行的,這樣就允許普通用戶通過FUSE提供的安全機制來創(chuàng)建和掛載自己</p><p> 的文件系統(tǒng)。由于FUSE是可加載的內(nèi)核模塊,普
128、通用戶不需要重新編譯內(nèi)核就可</p><p> 以創(chuàng)建功能完備的文件系統(tǒng)。對于讀寫虛擬文件系統(tǒng)來說,F(xiàn)USE是個很好的選擇。</p><p> FUSE起初是設(shè)計用于支持 AVFS(A Virtual Filesystem)的,而現(xiàn)在已經(jīng)成為</p><p> SourceForge 的 一 個 獨 立 項 目 , 目 前 適 用 的 平 臺 有 Linux、
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- DNFS:一種面向Linux集群的可擴展分布式文件系統(tǒng).pdf
- 分布式網(wǎng)絡(luò)文件系統(tǒng)(DNFS)研究與實現(xiàn).pdf
- 一種面向根文件系統(tǒng)的嵌入式Linux文件系統(tǒng)研究.pdf
- 一種分布式文件系統(tǒng)的設(shè)計與實現(xiàn).pdf
- 3種分布式文件系統(tǒng)
- 分布式面向?qū)ο笪募到y(tǒng)提取研究(1)
- 基于linux的分布式文件系統(tǒng)的設(shè)計實現(xiàn)
- 一種隨機讀寫的分布式文件系統(tǒng)的設(shè)計與實現(xiàn).pdf
- 基于linux的分布式文件系統(tǒng)的設(shè)計實現(xiàn).doc
- linux下分布式文件系統(tǒng)的設(shè)計與實現(xiàn)
- 分布式文件系統(tǒng)方案
- 分布式面向?qū)ο笪募到y(tǒng)提取研究.pdf
- 一種分布式文件系統(tǒng)在云存儲中的研究與實現(xiàn).pdf
- 分布式文件系統(tǒng)方案
- 分布式面向?qū)ο笪募到y(tǒng)研究.pdf
- 基于Linux的分布式文件系統(tǒng)的設(shè)計與實現(xiàn).pdf
- 分布式文件系統(tǒng)的研究.pdf
- 主流分布式文件系統(tǒng)比較
- 面向代理服務(wù)的分布式文件系統(tǒng)設(shè)計與實現(xiàn).pdf
- 一種Linux分布式存儲系統(tǒng)的設(shè)計和實現(xiàn).pdf
評論
0/150
提交評論