rhel中虛擬化集群畢業(yè)論文_第1頁
已閱讀1頁,還剩39頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、<p><b>  XXX職業(yè)技術(shù)學(xué)院</b></p><p><b>  畢業(yè)設(shè)計(論文)</b></p><p>  學(xué)生姓名: XX 學(xué) 號: XXXXXXXXX </p><p>  所在學(xué)院: 信息工程學(xué)院 </p><

2、p>  專 業(yè): 軟件技術(shù) </p><p>  設(shè)計(論文)題目: RHEL中集群虛擬化研究 </p><p>  指導(dǎo)教師: XXX </p><p>  2011 年 5 月 20 日</p><p>&l

3、t;b>  摘 要</b></p><p>  隨著計算機技術(shù)的發(fā)展和越來越廣泛的應(yīng)用,人們對計算機的依賴程度也越來越高。計算機的可靠性和可用性也變得越來越重要了。虛擬化技術(shù)很早就在計算機體系結(jié)構(gòu)、操作系統(tǒng)、編譯器和編程語言等領(lǐng)域得到了廣泛應(yīng)用。該技術(shù)實現(xiàn)了資源的邏輯抽象和統(tǒng)一表示,在服務(wù)器、網(wǎng)絡(luò)及存儲管理等方面都有著突出的優(yōu)勢,大大降低了管理復(fù)雜度,提高了資源利用率,提高了運營效率,從而有效

4、地控制了成本。由于在大規(guī)模數(shù)據(jù)中心管理和基于互聯(lián)網(wǎng)的解決方案交付運營方面有著巨大的價值,服務(wù)器虛擬化技術(shù)受到人們的高度重視,人們普遍相信虛擬化將成為未來數(shù)據(jù)中心的重要組成部分。盡管單臺計算機的性能和可靠性越來越好,但還是有許多現(xiàn)實的要求是單臺計算機難以達到的。 計算機集群技術(shù)就是將多臺計算機組織起來進行協(xié)同工作來模擬一臺功能更強大的計算機的技術(shù)。</p><p>  本文首先對虛擬化和現(xiàn)有服務(wù)器集群系統(tǒng)

5、的技術(shù)進行了分析,介紹了幾個典型的虛擬化系統(tǒng)和集群系統(tǒng),重點討論了VMWare ESX 架構(gòu)虛擬化、負載均衡集群(LVS)和高可用集群(High Availability)的工作原理和實現(xiàn)技術(shù)。然后根據(jù)現(xiàn)有的集群技術(shù)的缺點進行了改進,將虛擬化、負載均衡集群和高可用集群整合在一起,結(jié)合虛擬化和Linux技術(shù)實現(xiàn)了三層構(gòu)架的WWW服務(wù)器集群,以較低的價格達到了昂貴的商業(yè)硬件存儲解決方案所實現(xiàn)的效果。</p><p>

6、  關(guān)鍵字:虛擬化 VMWare Linux 集群 High Availability </p><p><b>  Abstract</b></p><p>  With the development of computer technology and more widely used, people's dependence on computers

7、is also increasing. Reliability and availability of computers has become increasingly important. Virtualization technology is already in the computer architecture, operating systems, compilers, and programming

8、language widely used areas. The technology to achieve a logical abstraction of resources and unity of that in the server, network and storage management, all have outstanding advantages, grea</p><p>  F

9、irstly, the existing server virtualization and cluster analysis techniques were introduced a few typical systems and cluster virtualization, VMWare ESX architecture focused on virtualization, load balancing cluster (LVS)

10、 and high-availability cluster ( High Availability) working principle and implementation of technology. Then the shortcomings of the existing clustering technology has improved, virtualization, load balancing,

11、high availability clusters and cluster together, combining virtualiza</p><p>  Key words: Virtualization VMWare Linux Cluster High Availability</p><p><b>  目錄</b></p><p>

12、;<b>  摘 要I</b></p><p>  AbstractII</p><p><b>  第一章 引言1</b></p><p>  1.1 選題背景和意義1</p><p>  1.2 國內(nèi)外的研究現(xiàn)狀2</p><p>  第二章 虛擬化技術(shù)4&

13、lt;/p><p>  2.1 硬件虛擬化4</p><p>  2.2 軟件虛擬化5</p><p>  第三章 集群技術(shù)6</p><p>  3.1 集群的定義6</p><p>  3.2 集群的分類6</p><p>  3.3 集群的優(yōu)點7</p><

14、;p>  第四章 研究平臺所采用的關(guān)鍵技術(shù)8</p><p>  4.1 雙機熱備技術(shù)8</p><p>  4.2 IP負載調(diào)度均衡技術(shù)8</p><p>  4.3 IP-SAN存儲技術(shù)8</p><p>  第五章 系統(tǒng)實現(xiàn)過程10</p><p>  5.1 系統(tǒng)實現(xiàn)環(huán)境10</p>

15、;<p>  5.1.1 網(wǎng)絡(luò)拓撲圖及相關(guān)網(wǎng)絡(luò)節(jié)點說明10</p><p>  5.1.2 服務(wù)器選型10</p><p>  5.1.3 存儲IP-SAN配置11</p><p>  5.2 RHEL雙網(wǎng)卡負載均衡實現(xiàn)12</p><p>  5.3 AS500N存儲調(diào)試及服務(wù)器節(jié)點上ISCSI掛載15</p&

16、gt;<p>  5.4 浪潮BCP Cluster部署22</p><p>  5.5 部署VMWare 虛擬化主機30</p><p>  5.6 系統(tǒng)的優(yōu)點32</p><p><b>  總結(jié)33</b></p><p><b>  參考文獻34</b></p&

17、gt;<p><b>  致謝35</b></p><p><b>  第一章 引言</b></p><p>  1.1 選題背景和意義</p><p>  在過去的半個多世紀,信息技術(shù)的發(fā)展,尤其是計算機和互聯(lián)網(wǎng)技術(shù)的進步極大地改變了人們的工作和生活方式。大量企業(yè)開始采用以數(shù)據(jù)中心為業(yè)務(wù)運營平臺的信息服務(wù)

18、模式。進入新世紀后,數(shù)據(jù)中心變得空前重要和復(fù)雜,這對管理工作提出了全新的挑戰(zhàn),一系列問題接踵而來。企業(yè)如何通過數(shù)據(jù)中心快速地創(chuàng)建服務(wù)并高效地管理業(yè)務(wù);怎樣根據(jù)需求動態(tài)調(diào)整資源以降低運營成本;如何更加靈活、高效、安全地使用和管理各種資源;如何共享已有的計算平臺而不是重復(fù)創(chuàng)建自己的數(shù)據(jù)中心;業(yè)內(nèi)人士普遍認為,信息產(chǎn)業(yè)本身需要更加徹底的技術(shù)變革和商業(yè)模式轉(zhuǎn)型,虛擬化正是在這樣的背景下應(yīng)運而生的。計算機技術(shù)已進入以網(wǎng)絡(luò)為中心的計算時代。由于客戶

19、/服務(wù)器模型的簡單性、易管理性和易維護性,客戶/服務(wù)器計算模式在網(wǎng)上被大量采用。在九十年代中期,萬維網(wǎng)(World Wide Web)的出現(xiàn)以其簡單操作方式將圖文并茂的網(wǎng)上信息帶給普通大眾,Web也正在從一種內(nèi)容發(fā)送機制成為一種服務(wù)平臺,大量的服務(wù)和應(yīng)用(如新聞服務(wù)、網(wǎng)上銀行、電子商務(wù)等)都是圍繞著Web進行。這促進Internet用戶劇烈增長和Internet流量爆炸式地增長。</p><p>  現(xiàn)在Web服

20、務(wù)中越來越多地使用CGI、動態(tài)主頁等CPU密集型應(yīng)用,這對服務(wù)器的性能有較高要求。未來的網(wǎng)絡(luò)服務(wù)會提供更豐富的內(nèi)容、更好的交互性、更高的安全性等,需要服務(wù)器具有更強的CPU和I/O處理能力。例如,通過HTTPS(Secure HTTP)取一個靜態(tài)頁面需要的處理性能比通過HTTP的高一個數(shù)量級,HTTPS正在被電子商務(wù)站點廣為使用。所以,網(wǎng)絡(luò)流量并不能說明全部問題,要考慮到應(yīng)用本身的發(fā)展也需要越來越強的處理性能。</p>&

21、lt;p>  大部分網(wǎng)站都需要提供每天24小時、每星期7天的服務(wù),對電子商務(wù)等網(wǎng)站尤為突出,任何服務(wù)中斷和關(guān)鍵性的數(shù)據(jù)丟失都會造成直接的商業(yè)損失。例如,根據(jù)Dell的新聞發(fā)布,Dell現(xiàn)在每天在網(wǎng)站上的交易收入為一千四百萬美元,一個小時的服務(wù)中斷都會造成平均五十八萬美元的損失。所以,這對網(wǎng)絡(luò)服務(wù)的可靠性提出了越來越高的要求。</p><p>  1.2 國內(nèi)外的研究現(xiàn)狀</p><p&g

22、t;  虛擬化技術(shù)可以有效地簡化數(shù)據(jù)中心管理,但是仍然不能消除企業(yè)為了使用 IT系統(tǒng)而進行的數(shù)據(jù)中心構(gòu)建、硬件采購、軟件安裝、系統(tǒng)維護等環(huán)節(jié)。早在大型機盛行的20世紀五六十年代,就是采用“租借”的方式對外提供服務(wù)的。IBM公司當時的首席執(zhí)行官 Thomas Watson曾預(yù)言道:“全世界只需要五臺計算機”,過去三十年的 PC大繁榮似乎正在推翻這個論斷,人們常常引用這個例子,來說明信息產(chǎn)業(yè)的不可預(yù)測性。然而,信息技術(shù)變革并不總是直線前進,

23、而是螺旋式上升的,半導(dǎo)體、互聯(lián)網(wǎng)和虛擬化技術(shù)的飛速發(fā)展使得業(yè)界不得不重新思考這一構(gòu)想,這些支撐技術(shù)的成熟讓我們有可能把全世界的數(shù)據(jù)中心進行適度的集中,從而實現(xiàn)規(guī)模化效應(yīng),人們只需遠程租用這些共享資源而不需要購置和維護。 </p><p>  而九十年代末期,Linux操作系統(tǒng)不斷走向成熟,它的健壯性不斷增強,并且提供了GNU軟件和標準化的PVM、MPI消息傳遞機制,最重要的是Linux在普通PC機上提供

24、了對高性能網(wǎng)絡(luò)的支持,這樣就大大推動了基于Linux的集群系統(tǒng)的發(fā)展。在國內(nèi),包括中國科學(xué)院在內(nèi)的許多大學(xué)與研究機構(gòu)早在20世紀90年代就開始了基于Linux集群研究,聯(lián)想、浪潮等國內(nèi)許多公司都有Linux集群產(chǎn)品和解決方案。Google、Baidu和騰訊后臺均采用Linux集群,其中Google在2005年就達到了200萬臺,不僅如此,Linux集群大量在金融、證券、電信以及IT行業(yè)使用。</p><p>  

25、名為 High-Availability Linux 的開源項目的目標是,通過社區(qū)開發(fā)努力提供一個提升 Linux 可靠性(reliability)、可用性(availability)和可服務(wù)性(serviceability)(RAS)的群集解決方案。Linux-HA 項目得到了廣泛的應(yīng)用,是很多有趣的高可用性解決方案的重要組成部分。 </p><p>  LVS是中國章文嵩博士發(fā)起和領(lǐng)導(dǎo)的優(yōu)秀的集群解決方案,許

26、多商業(yè)的集群產(chǎn)品,比如RedHat的Piranha等,都是基于LVS的核心代碼的。</p><p>  HA和LVS的不足主要有:HA集群一般都是以兩個節(jié)點的形式出現(xiàn)的,單機處理能力有限,所以當服務(wù)器壓力較大時,想擴容服務(wù)器的處理能力往往得把以前的服務(wù)器淘汰掉,浪費了以前的投資;LVS集群的真實服務(wù)器都是靠前端IP負載器進行調(diào)度分配的,所以存在單點故障,如果IP負載器Down機,整個集群系統(tǒng)就會癱瘓。所以必須把H

27、A和LVS整合在一起。真實服務(wù)器的數(shù)據(jù)源所涉及的共享存儲一般都是利用商業(yè)的硬件解決方案,如SAN網(wǎng)絡(luò)區(qū)域存儲,對于小型集群系統(tǒng)來說,投入非常高昂,完全可以利用Linux的軟件RAID5技術(shù)和NFS網(wǎng)絡(luò)文件系統(tǒng)來實現(xiàn)。</p><p><b>  第二章 虛擬化技術(shù)</b></p><p>  虛擬化是指計算機元件在虛擬的基礎(chǔ)上而不是真實的基礎(chǔ)上運行。虛擬化技術(shù)可以擴大

28、硬件的容量,簡化軟件的重新配置過程。CPU的虛擬化技術(shù)可以單CPU模擬多CPU并行,允許一個平臺同時運行多個操作系統(tǒng),并且應(yīng)用程序都可以在相互獨立的空間內(nèi)運行而互不影響,從而顯著提高計算機的工作效率。虛擬化技術(shù)與多任務(wù)以及超線程技術(shù)是完全不同的。多任務(wù)是指在一個操作系統(tǒng)中多個程序同時并行運行,而在虛擬化技術(shù)中,則可以同時運行多個操作系統(tǒng),而且每一個操作系統(tǒng)中都有多個程序運行,每一個操作系統(tǒng)都運行在一個虛擬的CPU或者是虛擬主機上;而超線

29、程技術(shù)只是單CPU模擬雙CPU來平衡程序運行性能,這兩個模擬出來的CPU是不能分離的,只能協(xié)同工作。</p><p><b>  2.1 硬件虛擬化</b></p><p>  而CPU的虛擬化技術(shù)是一種硬件方案,支持虛擬技術(shù)的CPU帶有特別優(yōu)化過的指令集來控制虛擬過程,通過這些指令集,VMM會很容易提高性能,相比軟件的虛擬實現(xiàn)方式會很大程度上提高性能。虛擬化技術(shù)可提

30、供基于芯片的功能,借助兼容VMM軟件能夠改進純軟件解決方案。由于虛擬化硬件可提供全新的架構(gòu),支持操作系統(tǒng)直接在上面運行,從而無需進行二進制轉(zhuǎn)換,減少了相關(guān)的性能開銷,極大簡化了VMM設(shè)計,進而使VMM能夠按通用標準進行編寫,性能更加強大。另外,在純軟件VMM中,缺少對64位客戶操作系統(tǒng)的支持,而隨著64位處理器的不斷普及,這一嚴重缺點也日益突出。而CPU的虛擬化技術(shù)除支持廣泛的傳統(tǒng)操作系統(tǒng)之外,還支持64位客戶操作系統(tǒng)。</p&g

31、t;<p>  虛擬化技術(shù)是一套解決方案。完整的情況需要CPU、主板芯片組、BIOS和軟件的支持,例如VMM軟件或者某些操作系統(tǒng)本身。即使只是CPU支持虛擬化技術(shù),在配合VMM的軟件情況下,也會比完全不支持虛擬化技術(shù)的系統(tǒng)有更好的性能。</p><p><b>  2.2 軟件虛擬化</b></p><p>  純軟件虛擬化解決方案存在很多限制。“客戶”

32、操作系統(tǒng)很多情況下是通過虛擬機監(jiān)視器(Virtual Machine Monitor,VMM)來與硬件進行通信,由VMM來決定其對系統(tǒng)上所有虛擬機的訪問。(注意,大多數(shù)處理器和內(nèi)存訪問獨立于VMM,只在發(fā)生特定事件時才會涉及VMM,如頁面錯誤。)在純軟件虛擬化解決方案中,VMM在軟件套件中的位置是傳統(tǒng)意義上操作系統(tǒng)所處的位置,而操作系統(tǒng)的位置是傳統(tǒng)意義上應(yīng)用程序所處的位置。這一額外的通信層需要進行二進制轉(zhuǎn)換,以通過提供到物理資源(如處理

33、器、內(nèi)存、存儲、顯卡和網(wǎng)卡等)的接口,模擬硬件環(huán)境。這種轉(zhuǎn)換必然會增加系統(tǒng)的復(fù)雜性。此外,客戶操作系統(tǒng)的支持受到虛擬機環(huán)境的能力限制,這會阻礙特定技術(shù)的部署,如64位客戶操作系統(tǒng)。在純軟件解決方案中,軟件堆棧增加的復(fù)雜性意味著,這些環(huán)境難于管理,因而會加大確保系統(tǒng)可靠性和安全性的困難。</p><p><b>  第三章 集群技術(shù)</b></p><p><b&

34、gt;  3.1 集群的定義</b></p><p>  集群(cluster)就是一組計算機,它們作為一個整體向用戶提供一組網(wǎng)絡(luò)資源。這些單個的計算機系統(tǒng)就是集群的節(jié)點(node)。一個理想的集群是,用戶從來不會意識到集群系統(tǒng)底層的節(jié)點,在他/她們看來,集群是一個系統(tǒng),而非多個計算機系統(tǒng)。并且集群系統(tǒng)的管理員可以隨意增加和刪改集群系統(tǒng)的節(jié)點。集群計算機通常用來改進單個計算機的計算速度和/或可靠性。一

35、般情況下集群計算機比單個計算機,工作站或超級計算機性能價格比要高得多。</p><p>  3.2 集群的分類</p><p>  集群分為同構(gòu)與異構(gòu)兩種,它們的區(qū)別在于:組成集群系統(tǒng)的計算機之間的體系結(jié)構(gòu)是否相同。集群計算機按功能和結(jié)構(gòu)的不同可以分成:高可用性集群 (High-availability clusters,簡稱HA)、負載均衡集群(Load balancing clust

36、ers)、高性能計算集群(High-performance clusters,簡稱HPC)、網(wǎng)格計算(Grid computing)等幾類。</p><p>  高可用性集群一般是指當集群中有某個節(jié)點失效的情況下,其上的任務(wù)會自動轉(zhuǎn)移到其他正常的節(jié)點上。還指可以將集群中的某節(jié)點進行離線維護再上線,該過程并不影響整個集群的運行。</p><p>  負載均衡集群運行時一般通過一個或者多個前端

37、負載均衡器將工作負載分發(fā)到后端的一組服務(wù)器上,從而達到整個系統(tǒng)的高性能和高可用性。這樣的計算機集群有時也被稱為服務(wù)器群(Server Farm)。 一般高可用性集群和負載均衡集群會使用類似的技術(shù),或同時具有高可用性與負載均衡的特點。</p><p>  高性能計算集群采用將計算任務(wù)分配到集群的不同計算節(jié)點而提高計算能力,因而主要應(yīng)用在科學(xué)計算領(lǐng)域。比較流行的HPC采用Linux操作系統(tǒng)和其它一些免費軟件來完成并行

38、運算。這一集群配置通常被稱為Beowulf集群。這類集群通常運行特定的程序以發(fā)揮HPC cluster的并行能力。這類程序一般應(yīng)用特定的運行庫, 比如專為科學(xué)計算設(shè)計的MPI庫。HPC集群特別適合于在計算中各計算節(jié)點之間發(fā)生大量數(shù)據(jù)通訊的計算作業(yè),比如一個節(jié)點的中間結(jié)果或影響到其它節(jié)點計算結(jié)果的情況。</p><p>  網(wǎng)格計算或網(wǎng)格集群是一種與集群計算非常相關(guān)的技術(shù)。網(wǎng)格與傳統(tǒng)集群的主要差別是網(wǎng)格是連接一組相

39、關(guān)并不信任的計算機,它的運作更像一個計算公共設(shè)施而不是一個獨立的計算機。還有,網(wǎng)格通常比集群支持更多不同類型的計算機集合。</p><p>  3.3 集群的優(yōu)點</p><p>  性能:網(wǎng)絡(luò)服務(wù)的工作負載通常是大量相互獨立的任務(wù),通過一組服務(wù)器分而治之,可以獲得很高的整體性能。</p><p>  性能/價格比:組成集群系統(tǒng)的PC服務(wù)器或RISC服務(wù)器和標準網(wǎng)

40、絡(luò)設(shè)備因為大規(guī)模生產(chǎn)降低成本,價格低,具有最高的性能/價格比。若整體性能隨著結(jié)點數(shù)的增長而接近線性增加,該系統(tǒng)的性能/價格比接近于PC服務(wù)器。所以,這種松耦合結(jié)構(gòu)比緊耦合的多處理器系統(tǒng)具有更好的性能/價格比。</p><p>  可伸縮性:集群系統(tǒng)中的結(jié)點數(shù)目可以增長到幾千個,乃至上萬個,其伸縮性遠超過單臺超級計算機。</p><p>  高可用性:在硬件和軟件上都有冗余,通過檢測軟硬件的

41、故障,將故障屏蔽,由存活結(jié)點提供服務(wù),可實現(xiàn)高可用性。</p><p>  第四章 研究平臺所采用的關(guān)鍵技術(shù)</p><p>  4.1 雙機熱備技術(shù)</p><p>  所謂雙機熱備,就是將中心服務(wù)器安裝成互為備份的兩臺服務(wù)器,并且在同一時間內(nèi)只有一臺服務(wù)器運行。當其中運行著的一臺服務(wù)器出現(xiàn)故障無法啟動時,另一臺備份服務(wù)器會迅速的自動啟動并運行(一般為2分鐘左右)

42、,從而保證整個網(wǎng)絡(luò)系統(tǒng)的正常運行!雙機熱備的工作機制實際上是為整個網(wǎng)絡(luò)系統(tǒng)的中心服務(wù)器提供了一種故障自動恢復(fù)能力。</p><p>  4.2 IP負載調(diào)度均衡技術(shù)</p><p>  用戶通過虛擬IP地址(Virtual IP Address)訪問服務(wù)時,訪問請求的報文會到達負載調(diào)度器,由它進行負載均衡調(diào)度,從一組真實服務(wù)器選出一個,將報文的目標地址Virtual IP Address改

43、寫成選定服務(wù)器的地址,報文的目標端口改寫成選定服務(wù)器的相應(yīng)端口,最后將報文發(fā)送給選定的服務(wù)器。真實服務(wù)器的回應(yīng)報文經(jīng)過負載調(diào)度器時,將報文的源地址和源端口改為Virtual IP Address和相應(yīng)的端口,再把報文發(fā)給用戶。</p><p>  4.3 IP-SAN存儲技術(shù)</p><p>  IP SAN基于十分成熟的以太網(wǎng)技術(shù),由于設(shè)置配置的技術(shù)簡單、低成本的特色相當明顯,而且普通服

44、務(wù)器或PC機只需要具備網(wǎng)卡,即可共享和使用大容量的存儲空間。 由于是基于IP協(xié)議的,能容納所有IP協(xié)議網(wǎng)絡(luò)中的部件,因此,用戶可以在任何需要的地方創(chuàng)建實際的SAN網(wǎng)絡(luò),而不需要專門的光纖通道網(wǎng)絡(luò)在服務(wù)器和存儲設(shè)備之間傳送數(shù)據(jù)。同時,因為沒有光纖通道對傳輸距離的限制,IP SAN使用標準的TCP/IP協(xié)議,數(shù)據(jù)即可在以太網(wǎng)上進行傳輸。IP SAN網(wǎng)絡(luò)對于那些要求流量不太高的應(yīng)用場合以及預(yù)算不充足的用戶,是一個非常好的選擇。服務(wù)器組提供統(tǒng)一

45、的存儲空間,這使得系統(tǒng)的維護工作比較輕松,如Webmaster只需要更新共享存儲中的頁面,對所有的服務(wù)器都有效。分布式文件系統(tǒng)提供良好的伸縮性和可用性,當分布式文件系統(tǒng)的存儲空間增加時,所有服務(wù)器的存儲空間也隨之增大。對于大多數(shù)Internet服務(wù)來說,它們都是讀密集型(Read-intensive)的應(yīng)用,分布式文件系統(tǒng)在每臺服務(wù)器使用本地硬盤作Cache(如2Gbytes的空間),可以使得訪問分布式文件系統(tǒng)本地的速度接近于訪問本地硬

46、盤。</p><p>  RAID是“Redundant Array of Independent Disk”的縮寫,中文意思是獨立冗余磁盤陣列。冗余磁盤陣列技術(shù)誕生于1987年,由美國加州大學(xué)伯克利分校提出。簡單地解釋,就是將N臺硬盤通過RAID Controller(分Hardware,Software)結(jié)合成虛擬單臺大容量的硬盤使用。RAID的采用為存儲系統(tǒng)(或者服務(wù)器的內(nèi)置存儲)帶來巨大利益,其中提高傳輸

47、速率和提供容錯功能是最大的優(yōu)點。</p><p>  第五章 系統(tǒng)實現(xiàn)過程</p><p>  5.1 系統(tǒng)實現(xiàn)環(huán)境</p><p>  5.1.1 網(wǎng)絡(luò)拓撲圖及相關(guān)網(wǎng)絡(luò)節(jié)點說明</p><p>  圖5-1 集群網(wǎng)絡(luò)拓撲圖</p><p>  表5-1 集群網(wǎng)絡(luò)節(jié)點IP分配</p><p> 

48、 5.1.2 服務(wù)器選型</p><p>  浪潮NF5225:采用英特爾® 至強®處理器5500/5600系列處理器,數(shù)據(jù)傳輸速率最高可達6.4GT/S,4-8MB的三級高速緩存支持64位擴展、I/O加速、Turbo、超線程技術(shù),系統(tǒng)應(yīng)用性能較上代產(chǎn)品提高2.25倍;采用最新的INTEL 5500+ICH10R,創(chuàng)新的主板VR電路設(shè)計,整體功耗降低5-12%,噪音降低4-5分貝,支持DPNM

49、電源管理技術(shù),節(jié)能環(huán)保;采用DDR III內(nèi)存,8個內(nèi)存插槽,支持DDR3 800/1066/1333MHz內(nèi)存,最大可擴展64GB內(nèi)存,支持三通道讀取,滿足用戶性能需求更加節(jié)能;支持8塊3.5寸SAS/SATA硬盤,對熱插拔存儲設(shè)備的支持更加靈活;增強型應(yīng)變散熱系統(tǒng)和側(cè)位循環(huán)風(fēng)流設(shè)計集中并控制風(fēng)流的方向,保證在2U高擴展狀態(tài)下CPU、內(nèi)存、系統(tǒng)的良好散熱,高系統(tǒng)的可靠性,延長部件的壽命并降低成本;關(guān)鍵部件硬盤、電源支持熱插拔冗余技術(shù),

50、不關(guān)機就可以進行部件的更換與維護,提高了系統(tǒng)的可用性;集成SATA 0、1、10、5;SAS RAID 0、1、10,可選Ibutton 硬虛擬RAID5,為用戶提供多種數(shù)據(jù)保護方案;配置3個PCI-E2.0擴</p><p>  5.1.3 存儲IP-SAN配置</p><p>  浪潮AS500N企業(yè)級2U存儲提供統(tǒng)一的IP SAN 、NAS特性,融合FC SAN,靈活部署系

51、統(tǒng)架構(gòu);IP SAN是基于高速以太網(wǎng)的SAN架構(gòu),適合Exchange、Notes、SQL Server等數(shù)據(jù)庫應(yīng)用。NAS存儲服務(wù)支持不同操作系統(tǒng)和多臺主機的文件共享,適合Web、文件服務(wù)器應(yīng)用,并可為不同用戶分配獨立的共享網(wǎng)絡(luò)文件夾,用于文檔集中存儲和備份。融合FC SAN,提供統(tǒng)一存儲。AS500N2在iSCSI配置下提供Snapshot Copy(數(shù)據(jù)快照拷貝)功能。Snapshot Copy是對源數(shù)據(jù)卷“克隆”出一個數(shù)據(jù)完全一

52、致但物理上獨立的卷,原數(shù)據(jù)卷的損壞不會影響克隆卷,輕松實現(xiàn)對在線訪問數(shù)據(jù)的備份、測試和數(shù)據(jù)倉庫分析等,有效提升災(zāi)難恢復(fù)能力。AS500N2支持SAS、SATA兩種類型的不同容量硬盤的混插,節(jié)省不必要的系統(tǒng)升級成本。單AS500N2產(chǎn)品可容納16塊SAS硬盤或者企業(yè)級SATA II硬盤,提供最高1000MB/s的帶寬吞吐量和138,000 IOPS的處理能力,滿足各種應(yīng)用的性能要求。系統(tǒng)支持SAS JBOD的擴展功能,充分滿足企業(yè)數(shù)據(jù)的倍

53、速增長。64位專用存儲處</p><p>  5.2 RHEL雙網(wǎng)卡負載均衡實現(xiàn)</p><p>  搭建系統(tǒng)環(huán)境,安裝RHEL5.6,常規(guī)模式,默認配置安裝即可。采用雙網(wǎng)卡綁定技術(shù)實現(xiàn)服務(wù)器網(wǎng)絡(luò)連接的高可用性及吞吐量,如圖5-2所示。</p><p>  1)效果:網(wǎng)卡eth0和eth1虛擬成設(shè)備bond0,并且向外公布一個虛擬IP地址。存儲AS500N的root

54、管理密碼為“inspur!dks01?”。</p><p>  配置完成后在inspur:~ #處輸入命令: ifconfig,出現(xiàn)信息:</p><p>  bond0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255

55、 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:861f/64 Scope:Link</p><p>  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1</p><p>  RX packets:10831 errors:0 d

56、ropped:0 overruns:0 frame:0</p><p>  TX packets:476 errors:0 dropped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:0</p><p>  RX bytes:1290093 (1.2 Mb) TX bytes:164685 (16

57、0.8 Kb)</p><p>  eth0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:8

58、61f/64 Scope:Link</p><p>  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1</p><p>  RX packets:5396 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:238 errors:0 dro

59、pped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:1000</p><p>  RX bytes:643234 (628.1 Kb) TX bytes:83262 (81.3 Kb)</p><p>  Base address:0xb000 Memory:f5000000-f5020000&

60、lt;/p><p>  eth1 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:861f/64 S

61、cope:Link</p><p>  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1</p><p>  RX packets:5435 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:238 errors:0 dropped:0 o

62、verruns:0 carrier:0</p><p>  collisions:0 txqueuelen:1000</p><p>  RX bytes:646859 (631.6 Kb) TX bytes:81423 (79.5 Kb)</p><p>  Base address:0xc000 Memory:f9000000-f9020000</p>

63、;<p>  lo Link encap:Local Loopback</p><p>  inet addr:127.0.0.1 Mask:255.0.0.0</p><p>  inet6 addr: ::1/128 Scope:Host</p><p>  UP LOOPBACK RUNNING MTU:16436 Metric:1</p&

64、gt;<p>  RX packets:108 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:108 errors:0 dropped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:0</p><p>  RX b

65、ytes:7288 (7.1 Kb) TX bytes:7288 (7.1 Kb)</p><p>  2)使用VI編輯器將標有//的內(nèi)容添加到/etc/init.d/network中的相應(yīng)位置。(//不用輸入,修改完后需要重啟服務(wù)器操作系統(tǒng))mode為網(wǎng)卡工作方式,“1”為互援式工作方式(熱備份工作方式,當前工作鏈路或網(wǎng)卡出現(xiàn)故障時,備份網(wǎng)卡會自動接管網(wǎng)絡(luò)鏈路),“0”為集群式工作方式(同時在線提供兩倍帶寬,一

66、條鏈路或網(wǎng)卡故障時,網(wǎng)絡(luò)帶寬為工作網(wǎng)卡帶寬,不需切換):</p><p>  Inspur:~ # vi /etc/network</p><p>  Inspur:~ # vi /etc/init.d/network</p><p>  rc_status -v</p><p><b>  fi</b></p&g

67、t;<p>  //#modprobe bonding mode=active-backup miimon=100 primary=eth0</p><p>  //modprobe bonding mode=0 miimon=100 primary=eth0</p><p>  //ifconfig bond0 inet 10.91.11.200 netmask 255.2

68、55.255.0</p><p>  //route add default gw 10.91.11.100</p><p>  //ifenslave bond0 eth0</p><p>  //ifenslave bond0 eth1</p><p>  //ifconfig bond0 up</p><p>&

69、lt;b>  ;;</b></p><p><b>  stop)</b></p><p>  echo Shutting down network interfaces:</p><p>  echo Shutting down network interfaces:</p><p>  //ifen

70、slave -d bond0 eth0</p><p>  //ifenslave -d bond0 eth1</p><p>  //ifconfig bond0 down</p><p>  圖5-2 實現(xiàn)存儲節(jié)點網(wǎng)絡(luò)負載均衡</p><p>  5.3 AS500N存儲調(diào)試及服務(wù)器節(jié)點上ISCSI掛載</p><p&

71、gt;  AS500N存儲管理系統(tǒng)出廠設(shè)置的IP 地址為192.168.1.1,在管理員控制臺的瀏覽器地址欄中輸入: https://192.168.1.1 即可顯示登錄界面,系統(tǒng)默認管理員為admin,密碼:root,如圖5-3所示.</p><p>  圖5-3 浪潮海量存儲登陸界面</p><p>  進入后顯示AS500N存儲信息,如圖5-4所示。</p><p

72、>  圖5-4 AS500N存儲信息</p><p>  點擊磁盤管理,物理磁盤管理顯示信息,如圖5-5所示。列出了系統(tǒng)中一個raid 卡上當前所有可用的磁盤。系統(tǒng)物理磁盤狀態(tài)可分為member、hotspare、good 及bad 四種使用狀態(tài),其中member 為成員盤,hotspare 為全局熱備盤,good 為可使用的游離盤,bad 為不可使用的游離盤;hotspare,good 狀態(tài)磁盤可相互轉(zhuǎn)換

73、,bad 狀態(tài)磁盤必須先進行掃描轉(zhuǎn)換,才可以正常使用。用戶可點擊按鈕執(zhí)行磁盤狀態(tài)轉(zhuǎn)換及磁盤定位顯示操作。</p><p>  圖5-5 物理磁盤信息</p><p>  點擊RAID管理,Raid列表顯示信息,如圖5-6所示。</p><p>  圖5-6 顯示RAID列表信息</p><p>  點擊新建RAID 顯示信息,如圖5-6所示。

74、</p><p>  圖5-6 創(chuàng)建新RAID</p><p>  創(chuàng)建完Raid后可在上一層查看創(chuàng)建的Raid后的編輯顯示詳細Raid信息狀態(tài),如圖5-7所示。</p><p>  圖5-7 編輯RAID并顯示RAID狀態(tài)</p><p>  在磁盤管理中點擊存儲管理可查看存儲邏輯卷,如圖5-8所示。</p><p>

75、;  圖5-8 查看管理存儲卷</p><p>  點擊新建存儲池可添加之前創(chuàng)建的Raid陣列,如圖5-9所示。</p><p>  圖5-9 新建存儲池并添加陣列</p><p>  創(chuàng)建完成后顯示存儲池詳細信息,如圖5-10所示。</p><p>  圖5-10 心事存儲池詳細信息</p><p>  點擊邏輯分區(qū)

76、管理創(chuàng)建邏輯分區(qū),如圖5-11所示。</p><p>  圖5-11 創(chuàng)建邏輯分區(qū)</p><p>  點擊新建邏輯分區(qū)開始創(chuàng)建邏輯分區(qū),ISCSI的應(yīng)用類型為SAN,所以選擇SAN,如圖5-12所示。</p><p>  圖5-12 創(chuàng)建SAN的iscsi的邏輯分區(qū)</p><p>  點擊主頁面中的SAN管理進入SAN的配置,如圖5-13

77、所示。</p><p>  圖5-13 進入SAN管理</p><p>  上圖中的“Target iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz”</p><p>  這 Target 名稱也稱作‘iSCSI Qualified Name'(簡稱:iqn),這格式在 iSCSI 規(guī)格書中有詳細說明:</p

78、><p>  iqn.yyyy-mm.<reversed domain name>[:identifier]</p><p><b>  格式意義</b></p><p>  yyyy-mm 年份-月份 例如:2011-04</p><p>  reversed domain name 倒過來的網(wǎng)域名稱 例如:l

79、ygtc.iscsi</p><p>  identifier 識別代號 例如:storage.disk1.sys1.xyz</p><p>  LUN(Logical Unit Number),“#Lun 0 Path=/dev/dm-1,Type=fileio”這一行中, Path 改成您提供的硬盤名稱,此例為“Path=/dev/dm-1”。我們可以使用像是區(qū)塊裝置(Block de

80、vices,例 /dev/sdc)、一般檔案(regular files)、LVM 邏輯卷軸(Logical Volume)與磁碟陣列(RAID)提供給 Initiators 主機當做‘區(qū)塊裝置’(硬盤)。</p><p>  然后選擇隱射的邏輯分區(qū)即可,如圖5-14所示。</p><p>  圖5-14 映射邏輯分區(qū)</p><p>  到此,AS500N上的存儲

81、陣列配置已經(jīng)結(jié)束。</p><p>  現(xiàn)在開始將安裝服務(wù)器需要的服務(wù)器iscsi端軟件,該軟件可以從安裝系統(tǒng)所在光盤中找到,需要符合當前所安裝的操作系統(tǒng)版本,本次研究環(huán)境是RHEL 5.6,iscsi的rpm程序包在光盤根目錄下的Server 目錄中的iscsi-initiator-utils-6.2.0.872-6.el5.i386.rpm。將本文件拷貝到RHEL系統(tǒng)中,然后進行iscsi的rmp包安裝。&l

82、t;/p><p><b>  命令處理:</b></p><p>  # rpm -ivh iscsi-initiator-utils-6.2.0.872-6.el5.i386.rpm 安裝iscsi</p><p>  #cat /etc/iscsi/initiatorname.iscsi 察看啟動器名稱</p><p>

83、  列出本機target,得到反饋信息:</p><p>  InitiatorName=iqn.1994-05.com.redhat:cd29a6b9aea</p><p>  # service iscsid start 設(shè)置使iscsi服務(wù)在系統(tǒng)啟動時自動啟</p><p>  # chkconfig iscsid on設(shè)置使iscsi服務(wù)在系統(tǒng)啟動時自動啟&

84、lt;/p><p>  #iscsiadm -m discovery -t sendtargets -p 10.91.11.200:3260</p><p>  列出目標AS500N存儲器的target,得到反饋信息:</p><p>  iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz</p><p>

85、;  #/etc/init.d/iscsi restart 重啟iscsi服務(wù)</p><p>  #iscsiadm -m node 查看添加的iscsi的lun信息</p><p>  #iscsiadm -m node -T iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz –p 10.91.11.200:3260 –l</p>

86、;<p>  連接目標存儲器LUN,然后就可以看到存儲端所映射的硬盤,可以像使用本地硬盤一樣使用所映射的存儲空間。</p><p>  #fdisk –l 查看存儲硬盤</p><p>  第一步:創(chuàng)建新磁盤分區(qū):</p><p>  用root用戶執(zhí)行命令#fdisk /dev/sdb,完成硬盤的分區(qū)。</p><p>  在

87、Command (m for help):提示下輸入n,即創(chuàng)建新的磁盤分區(qū)。</p><p>  在Command action</p><p>  e extended</p><p>  p primary partition (1-4):提示下輸入p,即創(chuàng)建主分區(qū)。</p><p>  在Partition number (1-4):

88、提示下輸入1 ,即分區(qū)號</p><p>  在First cylinder (1-522, default 1): 提示下按回車,即指定起始柱面(注意:括號中尾柱面數(shù)字取決于硬盤的具體型號)</p><p>  在Last cylinder or +size or +sizeM or +sizeK (1-522, default 522): 提示下按回車,即指定尾柱面。</p>

89、;<p>  在Command (m for help): 提示下輸入p ,即查看分區(qū)狀態(tài),如果看到/dev/sdb1等信息則說明分區(qū)成功。</p><p>  在Command (m for help): 提示下輸入t,即轉(zhuǎn)換分區(qū)類型</p><p>  在Hex code (type L list codes): 提示下輸入L,即顯示分區(qū)編碼列表</p>&

90、lt;p>  在Hex code (type L list codes): 提示下輸入fd,即LinuxRaid分區(qū)編碼</p><p>  在Command (m for help): 提示下輸入w ,即保存退出</p><p>  第二步:格式化創(chuàng)建磁盤分區(qū):</p><p>  用root用戶執(zhí)行命令#mkfs -t ext3 /dev/sdb1,完成硬

91、盤的格式化。</p><p><b>  第三步:掛載分區(qū)</b></p><p>  用root用戶執(zhí)行命令#mkdir /data 創(chuàng)建一個根目錄</p><p>  用root用戶執(zhí)行命令#mount /dev/sdb1 /data 將sdb1分區(qū) mount to /data</p><p>  完成后需要重新啟

92、動Linux主機,以使設(shè)置生效。注意系統(tǒng)開機順序:啟動AS500N存儲系統(tǒng),存儲系統(tǒng)正常啟動后依次打開兩臺服務(wù)器</p><p>  5.4 浪潮BCP Cluster部署</p><p>  在兩臺節(jié)點服務(wù)器上安裝好BCP后,使用PC機端連接節(jié)點服務(wù)器。在地址欄中先輸入其中一個節(jié)點公網(wǎng)IP:http://10.91.11.222:29003如圖5-15所示。</p><

93、;p>  圖5-15 初次進入BCP集群</p><p>  點擊設(shè)定進入bulider第一次要編輯java授權(quán)策略文件,如圖5-16、17所示。</p><p>  圖5-16 編輯JAVA授權(quán)策略</p><p>  編輯完策略文件關(guān)掉,重新啟動瀏覽器進程才能正常進入配置模式。</p><p>  圖5-17 編輯JAVA授權(quán)策略&

94、lt;/p><p>  重啟瀏覽器后進入BCP,如圖5-18所示。</p><p>  圖5-18 重啟瀏覽器后進入BCP</p><p>  進去后右擊集群生成向?qū)?,進入集群配置模式,如圖5-19所示。</p><p>  圖5-19 集群生成向?qū)?lt;/p><p>  在此中心服務(wù)器node1的ip公網(wǎng)地址是10.91.

95、11.111私網(wǎng)是172.16.11.111,node2的公網(wǎng)是10.91.11.222.私網(wǎng)是172.16.11.222,漂移地址是10.91.11.223,心跳分區(qū)是/dev/adb1,數(shù)據(jù)分區(qū)時/dev/adb2數(shù)據(jù)分區(qū)的掛載點是/data,具體操作如圖5-20到5-39所示。</p><p>  圖5-20 添加集群名稱并新建節(jié)點服務(wù)器</p><p>  圖5-21 分別加入私網(wǎng)

96、、公網(wǎng)IP信息</p><p>  圖5-22 添加心跳分區(qū)</p><p>  圖5-23心跳分區(qū)用的是裸設(shè)備,裸設(shè)備需要給分區(qū)綁定一個裸設(shè)備的名字</p><p>  圖5-24 同樣添加第二臺機器的信息并創(chuàng)建完成節(jié)點服務(wù)器設(shè)置</p><p>  圖5-25 添加集群資源類型</p><p>  圖5-26 添加

97、資源切換組</p><p>  圖5-27 在資源切換組里面添加資源</p><p>  圖5-28 添加漂移ip信息</p><p>  圖5-29 添加共享磁盤資源</p><p>  圖5-30 創(chuàng)建集群依賴關(guān)系</p><p>  圖5-31 編輯集群監(jiān)視資源</p><p>  圖5-

98、32 添加資源的監(jiān)控,共享型集群默認會自動添加用戶空間的監(jiān)控</p><p>  圖5-33 添加漂移ip監(jiān)控,linux下沒有浮動ip監(jiān)控選項監(jiān)控類型只能選擇ip監(jiān)控</p><p>  圖5-34 添加集群磁盤資源</p><p>  圖5-35 添加磁盤的監(jiān)控</p><p>  圖5-36 查看集群最終設(shè)置</p>&l

99、t;p>  圖5-37 然后上傳配置文件重新啟動集群服務(wù)器共享型集群的基本配置到現(xiàn)在結(jié)束</p><p>  圖5-38 到此,浪潮BCP Cluster部署完畢</p><p>  5.5 部署VMWare 虛擬化主機</p><p>  在節(jié)點一中安裝VMware-Workstation-6.5.2-156735.i386.bundle,并將Vmware網(wǎng)

100、絡(luò)設(shè)置為橋模式,并將設(shè)備指向bond0(節(jié)點均為雙網(wǎng)卡綁定模式)如圖5-39所示。</p><p>  圖5-39 設(shè)置網(wǎng)絡(luò)網(wǎng)橋只想bond0</p><p>  使用vmware登入系統(tǒng),點擊Vmware Workstation 出現(xiàn)如圖5-40所示:</p><p>  圖5-40 登陸VMWare WorkStation</p><p>

101、;  點擊Create a new virtual machine創(chuàng)建虛擬機,到如下畫面將location內(nèi)容修改為/data/VM1,如圖5-41所示。</p><p>  圖5-41 創(chuàng)建虛擬機</p><p>  到如下畫面將File name修改為/data/VM1 Windows XP Professional點擊Next出現(xiàn)如圖5-42所示畫面:</p><

102、p>  圖5-42 檢查虛擬機配置</p><p>  點擊Finish完成虛擬機創(chuàng)建。</p><p>  在節(jié)點二中同樣進行配置。需要注意的是節(jié)點二中的location內(nèi)容要修改為/data/VM2,F(xiàn)ile name修改為/data/VM2 Windows XP Professional。</p><p>  在/data上為VM1和VM2創(chuàng)建新的分區(qū)文

103、件,部署WINDOWS系統(tǒng)應(yīng)用。</p><p><b>  5.6 系統(tǒng)的優(yōu)點</b></p><p>  使用了基于iscsi的IP-SAN技術(shù),取代了價格昂貴的SCSI或者光纖SAN存儲。應(yīng)用系統(tǒng)和數(shù)據(jù)的有效分離,數(shù)據(jù)被集中存放在RAID10盤陣上,不會因為節(jié)點失效(軟、硬件故障)導(dǎo)致數(shù)據(jù)丟失。虛擬機的快速切換應(yīng)用。任意節(jié)點失效,VM系統(tǒng)都可迅速在另一節(jié)點重新部

104、署。該應(yīng)用方案為150個節(jié)點提供服務(wù),不會出現(xiàn)任何阻塞問題。使用了虛擬化技術(shù),減少了硬件成本投入,提高了系統(tǒng)資源的使用率。</p><p><b>  總結(jié)</b></p><p>  從著手選擇論文題目到論文的完成,每走一步都是新的嘗試與挑戰(zhàn),對操作系統(tǒng)、網(wǎng)絡(luò)和其它的專業(yè)理論知識有了更深入的理解和認識。從對HA與LVS等相關(guān)技術(shù)很不了解的狀態(tài),開始學(xué)習(xí)和試驗,查看相

105、關(guān)的網(wǎng)站資料,讓自己頭腦中模糊的概念逐漸清晰,使系統(tǒng)一步步完善起來,最終實現(xiàn)了設(shè)計要求與目標。</p><p>  通過這次畢業(yè)設(shè)計,了解了集群,高可用性集群,均衡負載集群存在的意義和價值。學(xué)習(xí)了怎么利用VMware虛擬化技術(shù)搭建網(wǎng)絡(luò)測試平臺,了解了Apache網(wǎng)站服務(wù)器軟件,存儲的概念,RAID技術(shù),網(wǎng)絡(luò)文件系統(tǒng)NFS以及HA集群項目下的HeartBeat和LVS集群項目下的Ipvsadm開源集群軟件,并且根據(jù)

106、其兩者的不足進行了改進,完成了三層構(gòu)架的集群設(shè)計,配置及測試,并取得了預(yù)期的效果。</p><p>  計算機集群系統(tǒng),以及基于Linux操作系統(tǒng)的計算機集群,目前都是計算機應(yīng)用領(lǐng)域里比較熱門的內(nèi)容。隨著互聯(lián)網(wǎng)應(yīng)用的發(fā)展,如現(xiàn)在非?;馃岬脑朴嬎慵夹g(shù),就是高可用,高可靠,均衡負載,高性能計算的綜合,今后的集群技術(shù)一定會沿著這個方向發(fā)展。</p><p><b>  參考文獻<

107、/b></p><p>  [1] 虛擬化與云計算小組 . 虛擬化與云計算.北京:電子工業(yè)出版社,2009.</p><p>  [2] 鳥哥 . 鳥哥的Linux私房菜基礎(chǔ)學(xué)習(xí)篇(第2版)[M].人民郵電出版社.2007-9.</p><p>  [3] 鳥哥 . 鳥哥的Linux私房菜:服務(wù)器架設(shè)篇(第2版)[M].機械工業(yè)出版社.2008-1.</

108、p><p>  [4] 高俊峰 . 循序漸進Linux基礎(chǔ)知識、服務(wù)器搭建、系統(tǒng)管理、性能調(diào)優(yōu)、集群應(yīng)用[M].人民郵電出版社.2009-12.</p><p>  [5] 趙攀 . LVS集群技術(shù)在校園網(wǎng)中的研究與設(shè)計[J].四川理工學(xué)院報(自然科學(xué)版).2009.02期.</p><p>  [6] 張展 . 用Apache架設(shè)WEB服務(wù)器[J].微電腦世界.200

109、5.07期.</p><p>  [7] 袁宜英 . IPVS集群系統(tǒng)的改進設(shè)計與實現(xiàn).現(xiàn)代計算機(專業(yè)版)[J].2008.05期.</p><p>  [8] 張巍 . 企業(yè)虛擬化實戰(zhàn)-VMware篇[M].機械工業(yè)出版社.2009-8.</p><p>  [9] 胡曉軍 . Linux服務(wù)器集群系統(tǒng)的研究和應(yīng)用[D].廣東.廣東工業(yè)大學(xué).2005年.<

110、/p><p>  [10] 李中福 . 計算機集群技術(shù)應(yīng)用研究[D].北京.中國地質(zhì)大學(xué).2006年.</p><p>  [11] 王鵬 . 基于IP的網(wǎng)絡(luò)存儲[J].企業(yè)家天地下半月刊.2007.03期.</p><p><b>  致謝</b></p><p>  首先要感謝我的指導(dǎo)教師XX老師。在畢業(yè)設(shè)計期間,我得到

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論