2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩39頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、<p><b>  XXX職業(yè)技術(shù)學(xué)院</b></p><p><b>  畢業(yè)設(shè)計(jì)(論文)</b></p><p>  學(xué)生姓名: XX 學(xué) 號(hào): XXXXXXXXX </p><p>  所在學(xué)院: 信息工程學(xué)院 </p><

2、p>  專(zhuān) 業(yè): 軟件技術(shù) </p><p>  設(shè)計(jì)(論文)題目: RHEL中集群虛擬化研究 </p><p>  指導(dǎo)教師: XXX </p><p>  2011 年 5 月 20 日</p><p>&l

3、t;b>  摘 要</b></p><p>  隨著計(jì)算機(jī)技術(shù)的發(fā)展和越來(lái)越廣泛的應(yīng)用,人們對(duì)計(jì)算機(jī)的依賴(lài)程度也越來(lái)越高。計(jì)算機(jī)的可靠性和可用性也變得越來(lái)越重要了。虛擬化技術(shù)很早就在計(jì)算機(jī)體系結(jié)構(gòu)、操作系統(tǒng)、編譯器和編程語(yǔ)言等領(lǐng)域得到了廣泛應(yīng)用。該技術(shù)實(shí)現(xiàn)了資源的邏輯抽象和統(tǒng)一表示,在服務(wù)器、網(wǎng)絡(luò)及存儲(chǔ)管理等方面都有著突出的優(yōu)勢(shì),大大降低了管理復(fù)雜度,提高了資源利用率,提高了運(yùn)營(yíng)效率,從而有效

4、地控制了成本。由于在大規(guī)模數(shù)據(jù)中心管理和基于互聯(lián)網(wǎng)的解決方案交付運(yùn)營(yíng)方面有著巨大的價(jià)值,服務(wù)器虛擬化技術(shù)受到人們的高度重視,人們普遍相信虛擬化將成為未來(lái)數(shù)據(jù)中心的重要組成部分。盡管單臺(tái)計(jì)算機(jī)的性能和可靠性越來(lái)越好,但還是有許多現(xiàn)實(shí)的要求是單臺(tái)計(jì)算機(jī)難以達(dá)到的。 計(jì)算機(jī)集群技術(shù)就是將多臺(tái)計(jì)算機(jī)組織起來(lái)進(jìn)行協(xié)同工作來(lái)模擬一臺(tái)功能更強(qiáng)大的計(jì)算機(jī)的技術(shù)。</p><p>  本文首先對(duì)虛擬化和現(xiàn)有服務(wù)器集群系統(tǒng)

5、的技術(shù)進(jìn)行了分析,介紹了幾個(gè)典型的虛擬化系統(tǒng)和集群系統(tǒng),重點(diǎn)討論了VMWare ESX 架構(gòu)虛擬化、負(fù)載均衡集群(LVS)和高可用集群(High Availability)的工作原理和實(shí)現(xiàn)技術(shù)。然后根據(jù)現(xiàn)有的集群技術(shù)的缺點(diǎn)進(jìn)行了改進(jìn),將虛擬化、負(fù)載均衡集群和高可用集群整合在一起,結(jié)合虛擬化和Linux技術(shù)實(shí)現(xiàn)了三層構(gòu)架的WWW服務(wù)器集群,以較低的價(jià)格達(dá)到了昂貴的商業(yè)硬件存儲(chǔ)解決方案所實(shí)現(xiàn)的效果。</p><p>

6、  關(guān)鍵字:虛擬化 VMWare Linux 集群 High Availability </p><p><b>  Abstract</b></p><p>  With the development of computer technology and more widely used, people's dependence on computers

7、is also increasing. Reliability and availability of computers has become increasingly important. Virtualization technology is already in the computer architecture, operating systems, compilers, and programming

8、language widely used areas. The technology to achieve a logical abstraction of resources and unity of that in the server, network and storage management, all have outstanding advantages, grea</p><p>  F

9、irstly, the existing server virtualization and cluster analysis techniques were introduced a few typical systems and cluster virtualization, VMWare ESX architecture focused on virtualization, load balancing cluster (LVS)

10、 and high-availability cluster ( High Availability) working principle and implementation of technology. Then the shortcomings of the existing clustering technology has improved, virtualization, load balancing,

11、high availability clusters and cluster together, combining virtualiza</p><p>  Key words: Virtualization VMWare Linux Cluster High Availability</p><p><b>  目錄</b></p><p>

12、;<b>  摘 要I</b></p><p>  AbstractII</p><p><b>  第一章 引言1</b></p><p>  1.1 選題背景和意義1</p><p>  1.2 國(guó)內(nèi)外的研究現(xiàn)狀2</p><p>  第二章 虛擬化技術(shù)4&

13、lt;/p><p>  2.1 硬件虛擬化4</p><p>  2.2 軟件虛擬化5</p><p>  第三章 集群技術(shù)6</p><p>  3.1 集群的定義6</p><p>  3.2 集群的分類(lèi)6</p><p>  3.3 集群的優(yōu)點(diǎn)7</p><

14、;p>  第四章 研究平臺(tái)所采用的關(guān)鍵技術(shù)8</p><p>  4.1 雙機(jī)熱備技術(shù)8</p><p>  4.2 IP負(fù)載調(diào)度均衡技術(shù)8</p><p>  4.3 IP-SAN存儲(chǔ)技術(shù)8</p><p>  第五章 系統(tǒng)實(shí)現(xiàn)過(guò)程10</p><p>  5.1 系統(tǒng)實(shí)現(xiàn)環(huán)境10</p>

15、;<p>  5.1.1 網(wǎng)絡(luò)拓?fù)鋱D及相關(guān)網(wǎng)絡(luò)節(jié)點(diǎn)說(shuō)明10</p><p>  5.1.2 服務(wù)器選型10</p><p>  5.1.3 存儲(chǔ)IP-SAN配置11</p><p>  5.2 RHEL雙網(wǎng)卡負(fù)載均衡實(shí)現(xiàn)12</p><p>  5.3 AS500N存儲(chǔ)調(diào)試及服務(wù)器節(jié)點(diǎn)上ISCSI掛載15</p&

16、gt;<p>  5.4 浪潮BCP Cluster部署22</p><p>  5.5 部署VMWare 虛擬化主機(jī)30</p><p>  5.6 系統(tǒng)的優(yōu)點(diǎn)32</p><p><b>  總結(jié)33</b></p><p><b>  參考文獻(xiàn)34</b></p&

17、gt;<p><b>  致謝35</b></p><p><b>  第一章 引言</b></p><p>  1.1 選題背景和意義</p><p>  在過(guò)去的半個(gè)多世紀(jì),信息技術(shù)的發(fā)展,尤其是計(jì)算機(jī)和互聯(lián)網(wǎng)技術(shù)的進(jìn)步極大地改變了人們的工作和生活方式。大量企業(yè)開(kāi)始采用以數(shù)據(jù)中心為業(yè)務(wù)運(yùn)營(yíng)平臺(tái)的信息服務(wù)

18、模式。進(jìn)入新世紀(jì)后,數(shù)據(jù)中心變得空前重要和復(fù)雜,這對(duì)管理工作提出了全新的挑戰(zhàn),一系列問(wèn)題接踵而來(lái)。企業(yè)如何通過(guò)數(shù)據(jù)中心快速地創(chuàng)建服務(wù)并高效地管理業(yè)務(wù);怎樣根據(jù)需求動(dòng)態(tài)調(diào)整資源以降低運(yùn)營(yíng)成本;如何更加靈活、高效、安全地使用和管理各種資源;如何共享已有的計(jì)算平臺(tái)而不是重復(fù)創(chuàng)建自己的數(shù)據(jù)中心;業(yè)內(nèi)人士普遍認(rèn)為,信息產(chǎn)業(yè)本身需要更加徹底的技術(shù)變革和商業(yè)模式轉(zhuǎn)型,虛擬化正是在這樣的背景下應(yīng)運(yùn)而生的。計(jì)算機(jī)技術(shù)已進(jìn)入以網(wǎng)絡(luò)為中心的計(jì)算時(shí)代。由于客戶(hù)

19、/服務(wù)器模型的簡(jiǎn)單性、易管理性和易維護(hù)性,客戶(hù)/服務(wù)器計(jì)算模式在網(wǎng)上被大量采用。在九十年代中期,萬(wàn)維網(wǎng)(World Wide Web)的出現(xiàn)以其簡(jiǎn)單操作方式將圖文并茂的網(wǎng)上信息帶給普通大眾,Web也正在從一種內(nèi)容發(fā)送機(jī)制成為一種服務(wù)平臺(tái),大量的服務(wù)和應(yīng)用(如新聞服務(wù)、網(wǎng)上銀行、電子商務(wù)等)都是圍繞著Web進(jìn)行。這促進(jìn)Internet用戶(hù)劇烈增長(zhǎng)和Internet流量爆炸式地增長(zhǎng)。</p><p>  現(xiàn)在Web服

20、務(wù)中越來(lái)越多地使用CGI、動(dòng)態(tài)主頁(yè)等CPU密集型應(yīng)用,這對(duì)服務(wù)器的性能有較高要求。未來(lái)的網(wǎng)絡(luò)服務(wù)會(huì)提供更豐富的內(nèi)容、更好的交互性、更高的安全性等,需要服務(wù)器具有更強(qiáng)的CPU和I/O處理能力。例如,通過(guò)HTTPS(Secure HTTP)取一個(gè)靜態(tài)頁(yè)面需要的處理性能比通過(guò)HTTP的高一個(gè)數(shù)量級(jí),HTTPS正在被電子商務(wù)站點(diǎn)廣為使用。所以,網(wǎng)絡(luò)流量并不能說(shuō)明全部問(wèn)題,要考慮到應(yīng)用本身的發(fā)展也需要越來(lái)越強(qiáng)的處理性能。</p>&

21、lt;p>  大部分網(wǎng)站都需要提供每天24小時(shí)、每星期7天的服務(wù),對(duì)電子商務(wù)等網(wǎng)站尤為突出,任何服務(wù)中斷和關(guān)鍵性的數(shù)據(jù)丟失都會(huì)造成直接的商業(yè)損失。例如,根據(jù)Dell的新聞發(fā)布,Dell現(xiàn)在每天在網(wǎng)站上的交易收入為一千四百萬(wàn)美元,一個(gè)小時(shí)的服務(wù)中斷都會(huì)造成平均五十八萬(wàn)美元的損失。所以,這對(duì)網(wǎng)絡(luò)服務(wù)的可靠性提出了越來(lái)越高的要求。</p><p>  1.2 國(guó)內(nèi)外的研究現(xiàn)狀</p><p&g

22、t;  虛擬化技術(shù)可以有效地簡(jiǎn)化數(shù)據(jù)中心管理,但是仍然不能消除企業(yè)為了使用 IT系統(tǒng)而進(jìn)行的數(shù)據(jù)中心構(gòu)建、硬件采購(gòu)、軟件安裝、系統(tǒng)維護(hù)等環(huán)節(jié)。早在大型機(jī)盛行的20世紀(jì)五六十年代,就是采用“租借”的方式對(duì)外提供服務(wù)的。IBM公司當(dāng)時(shí)的首席執(zhí)行官 Thomas Watson曾預(yù)言道:“全世界只需要五臺(tái)計(jì)算機(jī)”,過(guò)去三十年的 PC大繁榮似乎正在推翻這個(gè)論斷,人們常常引用這個(gè)例子,來(lái)說(shuō)明信息產(chǎn)業(yè)的不可預(yù)測(cè)性。然而,信息技術(shù)變革并不總是直線(xiàn)前進(jìn),

23、而是螺旋式上升的,半導(dǎo)體、互聯(lián)網(wǎng)和虛擬化技術(shù)的飛速發(fā)展使得業(yè)界不得不重新思考這一構(gòu)想,這些支撐技術(shù)的成熟讓我們有可能把全世界的數(shù)據(jù)中心進(jìn)行適度的集中,從而實(shí)現(xiàn)規(guī)?;?yīng),人們只需遠(yuǎn)程租用這些共享資源而不需要購(gòu)置和維護(hù)。 </p><p>  而九十年代末期,Linux操作系統(tǒng)不斷走向成熟,它的健壯性不斷增強(qiáng),并且提供了GNU軟件和標(biāo)準(zhǔn)化的PVM、MPI消息傳遞機(jī)制,最重要的是Linux在普通PC機(jī)上提供

24、了對(duì)高性能網(wǎng)絡(luò)的支持,這樣就大大推動(dòng)了基于Linux的集群系統(tǒng)的發(fā)展。在國(guó)內(nèi),包括中國(guó)科學(xué)院在內(nèi)的許多大學(xué)與研究機(jī)構(gòu)早在20世紀(jì)90年代就開(kāi)始了基于Linux集群研究,聯(lián)想、浪潮等國(guó)內(nèi)許多公司都有Linux集群產(chǎn)品和解決方案。Google、Baidu和騰訊后臺(tái)均采用Linux集群,其中Google在2005年就達(dá)到了200萬(wàn)臺(tái),不僅如此,Linux集群大量在金融、證券、電信以及IT行業(yè)使用。</p><p>  

25、名為 High-Availability Linux 的開(kāi)源項(xiàng)目的目標(biāo)是,通過(guò)社區(qū)開(kāi)發(fā)努力提供一個(gè)提升 Linux 可靠性(reliability)、可用性(availability)和可服務(wù)性(serviceability)(RAS)的群集解決方案。Linux-HA 項(xiàng)目得到了廣泛的應(yīng)用,是很多有趣的高可用性解決方案的重要組成部分。 </p><p>  LVS是中國(guó)章文嵩博士發(fā)起和領(lǐng)導(dǎo)的優(yōu)秀的集群解決方案,許

26、多商業(yè)的集群產(chǎn)品,比如RedHat的Piranha等,都是基于LVS的核心代碼的。</p><p>  HA和LVS的不足主要有:HA集群一般都是以?xún)蓚€(gè)節(jié)點(diǎn)的形式出現(xiàn)的,單機(jī)處理能力有限,所以當(dāng)服務(wù)器壓力較大時(shí),想擴(kuò)容服務(wù)器的處理能力往往得把以前的服務(wù)器淘汰掉,浪費(fèi)了以前的投資;LVS集群的真實(shí)服務(wù)器都是靠前端IP負(fù)載器進(jìn)行調(diào)度分配的,所以存在單點(diǎn)故障,如果IP負(fù)載器Down機(jī),整個(gè)集群系統(tǒng)就會(huì)癱瘓。所以必須把H

27、A和LVS整合在一起。真實(shí)服務(wù)器的數(shù)據(jù)源所涉及的共享存儲(chǔ)一般都是利用商業(yè)的硬件解決方案,如SAN網(wǎng)絡(luò)區(qū)域存儲(chǔ),對(duì)于小型集群系統(tǒng)來(lái)說(shuō),投入非常高昂,完全可以利用Linux的軟件RAID5技術(shù)和NFS網(wǎng)絡(luò)文件系統(tǒng)來(lái)實(shí)現(xiàn)。</p><p><b>  第二章 虛擬化技術(shù)</b></p><p>  虛擬化是指計(jì)算機(jī)元件在虛擬的基礎(chǔ)上而不是真實(shí)的基礎(chǔ)上運(yùn)行。虛擬化技術(shù)可以擴(kuò)大

28、硬件的容量,簡(jiǎn)化軟件的重新配置過(guò)程。CPU的虛擬化技術(shù)可以單CPU模擬多CPU并行,允許一個(gè)平臺(tái)同時(shí)運(yùn)行多個(gè)操作系統(tǒng),并且應(yīng)用程序都可以在相互獨(dú)立的空間內(nèi)運(yùn)行而互不影響,從而顯著提高計(jì)算機(jī)的工作效率。虛擬化技術(shù)與多任務(wù)以及超線(xiàn)程技術(shù)是完全不同的。多任務(wù)是指在一個(gè)操作系統(tǒng)中多個(gè)程序同時(shí)并行運(yùn)行,而在虛擬化技術(shù)中,則可以同時(shí)運(yùn)行多個(gè)操作系統(tǒng),而且每一個(gè)操作系統(tǒng)中都有多個(gè)程序運(yùn)行,每一個(gè)操作系統(tǒng)都運(yùn)行在一個(gè)虛擬的CPU或者是虛擬主機(jī)上;而超線(xiàn)

29、程技術(shù)只是單CPU模擬雙CPU來(lái)平衡程序運(yùn)行性能,這兩個(gè)模擬出來(lái)的CPU是不能分離的,只能協(xié)同工作。</p><p><b>  2.1 硬件虛擬化</b></p><p>  而CPU的虛擬化技術(shù)是一種硬件方案,支持虛擬技術(shù)的CPU帶有特別優(yōu)化過(guò)的指令集來(lái)控制虛擬過(guò)程,通過(guò)這些指令集,VMM會(huì)很容易提高性能,相比軟件的虛擬實(shí)現(xiàn)方式會(huì)很大程度上提高性能。虛擬化技術(shù)可提

30、供基于芯片的功能,借助兼容VMM軟件能夠改進(jìn)純軟件解決方案。由于虛擬化硬件可提供全新的架構(gòu),支持操作系統(tǒng)直接在上面運(yùn)行,從而無(wú)需進(jìn)行二進(jìn)制轉(zhuǎn)換,減少了相關(guān)的性能開(kāi)銷(xiāo),極大簡(jiǎn)化了VMM設(shè)計(jì),進(jìn)而使VMM能夠按通用標(biāo)準(zhǔn)進(jìn)行編寫(xiě),性能更加強(qiáng)大。另外,在純軟件VMM中,缺少對(duì)64位客戶(hù)操作系統(tǒng)的支持,而隨著64位處理器的不斷普及,這一嚴(yán)重缺點(diǎn)也日益突出。而CPU的虛擬化技術(shù)除支持廣泛的傳統(tǒng)操作系統(tǒng)之外,還支持64位客戶(hù)操作系統(tǒng)。</p&g

31、t;<p>  虛擬化技術(shù)是一套解決方案。完整的情況需要CPU、主板芯片組、BIOS和軟件的支持,例如VMM軟件或者某些操作系統(tǒng)本身。即使只是CPU支持虛擬化技術(shù),在配合VMM的軟件情況下,也會(huì)比完全不支持虛擬化技術(shù)的系統(tǒng)有更好的性能。</p><p><b>  2.2 軟件虛擬化</b></p><p>  純軟件虛擬化解決方案存在很多限制?!翱蛻?hù)”

32、操作系統(tǒng)很多情況下是通過(guò)虛擬機(jī)監(jiān)視器(Virtual Machine Monitor,VMM)來(lái)與硬件進(jìn)行通信,由VMM來(lái)決定其對(duì)系統(tǒng)上所有虛擬機(jī)的訪(fǎng)問(wèn)。(注意,大多數(shù)處理器和內(nèi)存訪(fǎng)問(wèn)獨(dú)立于VMM,只在發(fā)生特定事件時(shí)才會(huì)涉及VMM,如頁(yè)面錯(cuò)誤。)在純軟件虛擬化解決方案中,VMM在軟件套件中的位置是傳統(tǒng)意義上操作系統(tǒng)所處的位置,而操作系統(tǒng)的位置是傳統(tǒng)意義上應(yīng)用程序所處的位置。這一額外的通信層需要進(jìn)行二進(jìn)制轉(zhuǎn)換,以通過(guò)提供到物理資源(如處理

33、器、內(nèi)存、存儲(chǔ)、顯卡和網(wǎng)卡等)的接口,模擬硬件環(huán)境。這種轉(zhuǎn)換必然會(huì)增加系統(tǒng)的復(fù)雜性。此外,客戶(hù)操作系統(tǒng)的支持受到虛擬機(jī)環(huán)境的能力限制,這會(huì)阻礙特定技術(shù)的部署,如64位客戶(hù)操作系統(tǒng)。在純軟件解決方案中,軟件堆棧增加的復(fù)雜性意味著,這些環(huán)境難于管理,因而會(huì)加大確保系統(tǒng)可靠性和安全性的困難。</p><p><b>  第三章 集群技術(shù)</b></p><p><b&

34、gt;  3.1 集群的定義</b></p><p>  集群(cluster)就是一組計(jì)算機(jī),它們作為一個(gè)整體向用戶(hù)提供一組網(wǎng)絡(luò)資源。這些單個(gè)的計(jì)算機(jī)系統(tǒng)就是集群的節(jié)點(diǎn)(node)。一個(gè)理想的集群是,用戶(hù)從來(lái)不會(huì)意識(shí)到集群系統(tǒng)底層的節(jié)點(diǎn),在他/她們看來(lái),集群是一個(gè)系統(tǒng),而非多個(gè)計(jì)算機(jī)系統(tǒng)。并且集群系統(tǒng)的管理員可以隨意增加和刪改集群系統(tǒng)的節(jié)點(diǎn)。集群計(jì)算機(jī)通常用來(lái)改進(jìn)單個(gè)計(jì)算機(jī)的計(jì)算速度和/或可靠性。一

35、般情況下集群計(jì)算機(jī)比單個(gè)計(jì)算機(jī),工作站或超級(jí)計(jì)算機(jī)性能價(jià)格比要高得多。</p><p>  3.2 集群的分類(lèi)</p><p>  集群分為同構(gòu)與異構(gòu)兩種,它們的區(qū)別在于:組成集群系統(tǒng)的計(jì)算機(jī)之間的體系結(jié)構(gòu)是否相同。集群計(jì)算機(jī)按功能和結(jié)構(gòu)的不同可以分成:高可用性集群 (High-availability clusters,簡(jiǎn)稱(chēng)HA)、負(fù)載均衡集群(Load balancing clust

36、ers)、高性能計(jì)算集群(High-performance clusters,簡(jiǎn)稱(chēng)HPC)、網(wǎng)格計(jì)算(Grid computing)等幾類(lèi)。</p><p>  高可用性集群一般是指當(dāng)集群中有某個(gè)節(jié)點(diǎn)失效的情況下,其上的任務(wù)會(huì)自動(dòng)轉(zhuǎn)移到其他正常的節(jié)點(diǎn)上。還指可以將集群中的某節(jié)點(diǎn)進(jìn)行離線(xiàn)維護(hù)再上線(xiàn),該過(guò)程并不影響整個(gè)集群的運(yùn)行。</p><p>  負(fù)載均衡集群運(yùn)行時(shí)一般通過(guò)一個(gè)或者多個(gè)前端

37、負(fù)載均衡器將工作負(fù)載分發(fā)到后端的一組服務(wù)器上,從而達(dá)到整個(gè)系統(tǒng)的高性能和高可用性。這樣的計(jì)算機(jī)集群有時(shí)也被稱(chēng)為服務(wù)器群(Server Farm)。 一般高可用性集群和負(fù)載均衡集群會(huì)使用類(lèi)似的技術(shù),或同時(shí)具有高可用性與負(fù)載均衡的特點(diǎn)。</p><p>  高性能計(jì)算集群采用將計(jì)算任務(wù)分配到集群的不同計(jì)算節(jié)點(diǎn)而提高計(jì)算能力,因而主要應(yīng)用在科學(xué)計(jì)算領(lǐng)域。比較流行的HPC采用Linux操作系統(tǒng)和其它一些免費(fèi)軟件來(lái)完成并行

38、運(yùn)算。這一集群配置通常被稱(chēng)為Beowulf集群。這類(lèi)集群通常運(yùn)行特定的程序以發(fā)揮HPC cluster的并行能力。這類(lèi)程序一般應(yīng)用特定的運(yùn)行庫(kù), 比如專(zhuān)為科學(xué)計(jì)算設(shè)計(jì)的MPI庫(kù)。HPC集群特別適合于在計(jì)算中各計(jì)算節(jié)點(diǎn)之間發(fā)生大量數(shù)據(jù)通訊的計(jì)算作業(yè),比如一個(gè)節(jié)點(diǎn)的中間結(jié)果或影響到其它節(jié)點(diǎn)計(jì)算結(jié)果的情況。</p><p>  網(wǎng)格計(jì)算或網(wǎng)格集群是一種與集群計(jì)算非常相關(guān)的技術(shù)。網(wǎng)格與傳統(tǒng)集群的主要差別是網(wǎng)格是連接一組相

39、關(guān)并不信任的計(jì)算機(jī),它的運(yùn)作更像一個(gè)計(jì)算公共設(shè)施而不是一個(gè)獨(dú)立的計(jì)算機(jī)。還有,網(wǎng)格通常比集群支持更多不同類(lèi)型的計(jì)算機(jī)集合。</p><p>  3.3 集群的優(yōu)點(diǎn)</p><p>  性能:網(wǎng)絡(luò)服務(wù)的工作負(fù)載通常是大量相互獨(dú)立的任務(wù),通過(guò)一組服務(wù)器分而治之,可以獲得很高的整體性能。</p><p>  性能/價(jià)格比:組成集群系統(tǒng)的PC服務(wù)器或RISC服務(wù)器和標(biāo)準(zhǔn)網(wǎng)

40、絡(luò)設(shè)備因?yàn)榇笠?guī)模生產(chǎn)降低成本,價(jià)格低,具有最高的性能/價(jià)格比。若整體性能隨著結(jié)點(diǎn)數(shù)的增長(zhǎng)而接近線(xiàn)性增加,該系統(tǒng)的性能/價(jià)格比接近于PC服務(wù)器。所以,這種松耦合結(jié)構(gòu)比緊耦合的多處理器系統(tǒng)具有更好的性能/價(jià)格比。</p><p>  可伸縮性:集群系統(tǒng)中的結(jié)點(diǎn)數(shù)目可以增長(zhǎng)到幾千個(gè),乃至上萬(wàn)個(gè),其伸縮性遠(yuǎn)超過(guò)單臺(tái)超級(jí)計(jì)算機(jī)。</p><p>  高可用性:在硬件和軟件上都有冗余,通過(guò)檢測(cè)軟硬件的

41、故障,將故障屏蔽,由存活結(jié)點(diǎn)提供服務(wù),可實(shí)現(xiàn)高可用性。</p><p>  第四章 研究平臺(tái)所采用的關(guān)鍵技術(shù)</p><p>  4.1 雙機(jī)熱備技術(shù)</p><p>  所謂雙機(jī)熱備,就是將中心服務(wù)器安裝成互為備份的兩臺(tái)服務(wù)器,并且在同一時(shí)間內(nèi)只有一臺(tái)服務(wù)器運(yùn)行。當(dāng)其中運(yùn)行著的一臺(tái)服務(wù)器出現(xiàn)故障無(wú)法啟動(dòng)時(shí),另一臺(tái)備份服務(wù)器會(huì)迅速的自動(dòng)啟動(dòng)并運(yùn)行(一般為2分鐘左右)

42、,從而保證整個(gè)網(wǎng)絡(luò)系統(tǒng)的正常運(yùn)行!雙機(jī)熱備的工作機(jī)制實(shí)際上是為整個(gè)網(wǎng)絡(luò)系統(tǒng)的中心服務(wù)器提供了一種故障自動(dòng)恢復(fù)能力。</p><p>  4.2 IP負(fù)載調(diào)度均衡技術(shù)</p><p>  用戶(hù)通過(guò)虛擬IP地址(Virtual IP Address)訪(fǎng)問(wèn)服務(wù)時(shí),訪(fǎng)問(wèn)請(qǐng)求的報(bào)文會(huì)到達(dá)負(fù)載調(diào)度器,由它進(jìn)行負(fù)載均衡調(diào)度,從一組真實(shí)服務(wù)器選出一個(gè),將報(bào)文的目標(biāo)地址Virtual IP Address改

43、寫(xiě)成選定服務(wù)器的地址,報(bào)文的目標(biāo)端口改寫(xiě)成選定服務(wù)器的相應(yīng)端口,最后將報(bào)文發(fā)送給選定的服務(wù)器。真實(shí)服務(wù)器的回應(yīng)報(bào)文經(jīng)過(guò)負(fù)載調(diào)度器時(shí),將報(bào)文的源地址和源端口改為Virtual IP Address和相應(yīng)的端口,再把報(bào)文發(fā)給用戶(hù)。</p><p>  4.3 IP-SAN存儲(chǔ)技術(shù)</p><p>  IP SAN基于十分成熟的以太網(wǎng)技術(shù),由于設(shè)置配置的技術(shù)簡(jiǎn)單、低成本的特色相當(dāng)明顯,而且普通服

44、務(wù)器或PC機(jī)只需要具備網(wǎng)卡,即可共享和使用大容量的存儲(chǔ)空間。 由于是基于IP協(xié)議的,能容納所有IP協(xié)議網(wǎng)絡(luò)中的部件,因此,用戶(hù)可以在任何需要的地方創(chuàng)建實(shí)際的SAN網(wǎng)絡(luò),而不需要專(zhuān)門(mén)的光纖通道網(wǎng)絡(luò)在服務(wù)器和存儲(chǔ)設(shè)備之間傳送數(shù)據(jù)。同時(shí),因?yàn)闆](méi)有光纖通道對(duì)傳輸距離的限制,IP SAN使用標(biāo)準(zhǔn)的TCP/IP協(xié)議,數(shù)據(jù)即可在以太網(wǎng)上進(jìn)行傳輸。IP SAN網(wǎng)絡(luò)對(duì)于那些要求流量不太高的應(yīng)用場(chǎng)合以及預(yù)算不充足的用戶(hù),是一個(gè)非常好的選擇。服務(wù)器組提供統(tǒng)一

45、的存儲(chǔ)空間,這使得系統(tǒng)的維護(hù)工作比較輕松,如Webmaster只需要更新共享存儲(chǔ)中的頁(yè)面,對(duì)所有的服務(wù)器都有效。分布式文件系統(tǒng)提供良好的伸縮性和可用性,當(dāng)分布式文件系統(tǒng)的存儲(chǔ)空間增加時(shí),所有服務(wù)器的存儲(chǔ)空間也隨之增大。對(duì)于大多數(shù)Internet服務(wù)來(lái)說(shuō),它們都是讀密集型(Read-intensive)的應(yīng)用,分布式文件系統(tǒng)在每臺(tái)服務(wù)器使用本地硬盤(pán)作Cache(如2Gbytes的空間),可以使得訪(fǎng)問(wèn)分布式文件系統(tǒng)本地的速度接近于訪(fǎng)問(wèn)本地硬

46、盤(pán)。</p><p>  RAID是“Redundant Array of Independent Disk”的縮寫(xiě),中文意思是獨(dú)立冗余磁盤(pán)陣列。冗余磁盤(pán)陣列技術(shù)誕生于1987年,由美國(guó)加州大學(xué)伯克利分校提出。簡(jiǎn)單地解釋?zhuān)褪菍臺(tái)硬盤(pán)通過(guò)RAID Controller(分Hardware,Software)結(jié)合成虛擬單臺(tái)大容量的硬盤(pán)使用。RAID的采用為存儲(chǔ)系統(tǒng)(或者服務(wù)器的內(nèi)置存儲(chǔ))帶來(lái)巨大利益,其中提高傳輸

47、速率和提供容錯(cuò)功能是最大的優(yōu)點(diǎn)。</p><p>  第五章 系統(tǒng)實(shí)現(xiàn)過(guò)程</p><p>  5.1 系統(tǒng)實(shí)現(xiàn)環(huán)境</p><p>  5.1.1 網(wǎng)絡(luò)拓?fù)鋱D及相關(guān)網(wǎng)絡(luò)節(jié)點(diǎn)說(shuō)明</p><p>  圖5-1 集群網(wǎng)絡(luò)拓?fù)鋱D</p><p>  表5-1 集群網(wǎng)絡(luò)節(jié)點(diǎn)IP分配</p><p> 

48、 5.1.2 服務(wù)器選型</p><p>  浪潮NF5225:采用英特爾® 至強(qiáng)®處理器5500/5600系列處理器,數(shù)據(jù)傳輸速率最高可達(dá)6.4GT/S,4-8MB的三級(jí)高速緩存支持64位擴(kuò)展、I/O加速、Turbo、超線(xiàn)程技術(shù),系統(tǒng)應(yīng)用性能較上代產(chǎn)品提高2.25倍;采用最新的INTEL 5500+ICH10R,創(chuàng)新的主板VR電路設(shè)計(jì),整體功耗降低5-12%,噪音降低4-5分貝,支持DPNM

49、電源管理技術(shù),節(jié)能環(huán)保;采用DDR III內(nèi)存,8個(gè)內(nèi)存插槽,支持DDR3 800/1066/1333MHz內(nèi)存,最大可擴(kuò)展64GB內(nèi)存,支持三通道讀取,滿(mǎn)足用戶(hù)性能需求更加節(jié)能;支持8塊3.5寸SAS/SATA硬盤(pán),對(duì)熱插拔存儲(chǔ)設(shè)備的支持更加靈活;增強(qiáng)型應(yīng)變散熱系統(tǒng)和側(cè)位循環(huán)風(fēng)流設(shè)計(jì)集中并控制風(fēng)流的方向,保證在2U高擴(kuò)展?fàn)顟B(tài)下CPU、內(nèi)存、系統(tǒng)的良好散熱,高系統(tǒng)的可靠性,延長(zhǎng)部件的壽命并降低成本;關(guān)鍵部件硬盤(pán)、電源支持熱插拔冗余技術(shù),

50、不關(guān)機(jī)就可以進(jìn)行部件的更換與維護(hù),提高了系統(tǒng)的可用性;集成SATA 0、1、10、5;SAS RAID 0、1、10,可選Ibutton 硬虛擬RAID5,為用戶(hù)提供多種數(shù)據(jù)保護(hù)方案;配置3個(gè)PCI-E2.0擴(kuò)</p><p>  5.1.3 存儲(chǔ)IP-SAN配置</p><p>  浪潮AS500N企業(yè)級(jí)2U存儲(chǔ)提供統(tǒng)一的IP SAN 、NAS特性,融合FC SAN,靈活部署系

51、統(tǒng)架構(gòu);IP SAN是基于高速以太網(wǎng)的SAN架構(gòu),適合Exchange、Notes、SQL Server等數(shù)據(jù)庫(kù)應(yīng)用。NAS存儲(chǔ)服務(wù)支持不同操作系統(tǒng)和多臺(tái)主機(jī)的文件共享,適合Web、文件服務(wù)器應(yīng)用,并可為不同用戶(hù)分配獨(dú)立的共享網(wǎng)絡(luò)文件夾,用于文檔集中存儲(chǔ)和備份。融合FC SAN,提供統(tǒng)一存儲(chǔ)。AS500N2在iSCSI配置下提供Snapshot Copy(數(shù)據(jù)快照拷貝)功能。Snapshot Copy是對(duì)源數(shù)據(jù)卷“克隆”出一個(gè)數(shù)據(jù)完全一

52、致但物理上獨(dú)立的卷,原數(shù)據(jù)卷的損壞不會(huì)影響克隆卷,輕松實(shí)現(xiàn)對(duì)在線(xiàn)訪(fǎng)問(wèn)數(shù)據(jù)的備份、測(cè)試和數(shù)據(jù)倉(cāng)庫(kù)分析等,有效提升災(zāi)難恢復(fù)能力。AS500N2支持SAS、SATA兩種類(lèi)型的不同容量硬盤(pán)的混插,節(jié)省不必要的系統(tǒng)升級(jí)成本。單AS500N2產(chǎn)品可容納16塊SAS硬盤(pán)或者企業(yè)級(jí)SATA II硬盤(pán),提供最高1000MB/s的帶寬吞吐量和138,000 IOPS的處理能力,滿(mǎn)足各種應(yīng)用的性能要求。系統(tǒng)支持SAS JBOD的擴(kuò)展功能,充分滿(mǎn)足企業(yè)數(shù)據(jù)的倍

53、速增長(zhǎng)。64位專(zhuān)用存儲(chǔ)處</p><p>  5.2 RHEL雙網(wǎng)卡負(fù)載均衡實(shí)現(xiàn)</p><p>  搭建系統(tǒng)環(huán)境,安裝RHEL5.6,常規(guī)模式,默認(rèn)配置安裝即可。采用雙網(wǎng)卡綁定技術(shù)實(shí)現(xiàn)服務(wù)器網(wǎng)絡(luò)連接的高可用性及吞吐量,如圖5-2所示。</p><p>  1)效果:網(wǎng)卡eth0和eth1虛擬成設(shè)備bond0,并且向外公布一個(gè)虛擬IP地址。存儲(chǔ)AS500N的root

54、管理密碼為“inspur!dks01?”。</p><p>  配置完成后在inspur:~ #處輸入命令: ifconfig,出現(xiàn)信息:</p><p>  bond0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255

55、 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:861f/64 Scope:Link</p><p>  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1</p><p>  RX packets:10831 errors:0 d

56、ropped:0 overruns:0 frame:0</p><p>  TX packets:476 errors:0 dropped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:0</p><p>  RX bytes:1290093 (1.2 Mb) TX bytes:164685 (16

57、0.8 Kb)</p><p>  eth0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:8

58、61f/64 Scope:Link</p><p>  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1</p><p>  RX packets:5396 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:238 errors:0 dro

59、pped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:1000</p><p>  RX bytes:643234 (628.1 Kb) TX bytes:83262 (81.3 Kb)</p><p>  Base address:0xb000 Memory:f5000000-f5020000&

60、lt;/p><p>  eth1 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F</p><p>  inet addr:10.91.11.200 Bcast:10.255.255.255 Mask:255.255.255.0</p><p>  inet6 addr: fe80::20c:76ff:fe6c:861f/64 S

61、cope:Link</p><p>  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1</p><p>  RX packets:5435 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:238 errors:0 dropped:0 o

62、verruns:0 carrier:0</p><p>  collisions:0 txqueuelen:1000</p><p>  RX bytes:646859 (631.6 Kb) TX bytes:81423 (79.5 Kb)</p><p>  Base address:0xc000 Memory:f9000000-f9020000</p>

63、;<p>  lo Link encap:Local Loopback</p><p>  inet addr:127.0.0.1 Mask:255.0.0.0</p><p>  inet6 addr: ::1/128 Scope:Host</p><p>  UP LOOPBACK RUNNING MTU:16436 Metric:1</p&

64、gt;<p>  RX packets:108 errors:0 dropped:0 overruns:0 frame:0</p><p>  TX packets:108 errors:0 dropped:0 overruns:0 carrier:0</p><p>  collisions:0 txqueuelen:0</p><p>  RX b

65、ytes:7288 (7.1 Kb) TX bytes:7288 (7.1 Kb)</p><p>  2)使用VI編輯器將標(biāo)有//的內(nèi)容添加到/etc/init.d/network中的相應(yīng)位置。(//不用輸入,修改完后需要重啟服務(wù)器操作系統(tǒng))mode為網(wǎng)卡工作方式,“1”為互援式工作方式(熱備份工作方式,當(dāng)前工作鏈路或網(wǎng)卡出現(xiàn)故障時(shí),備份網(wǎng)卡會(huì)自動(dòng)接管網(wǎng)絡(luò)鏈路),“0”為集群式工作方式(同時(shí)在線(xiàn)提供兩倍帶寬,一

66、條鏈路或網(wǎng)卡故障時(shí),網(wǎng)絡(luò)帶寬為工作網(wǎng)卡帶寬,不需切換):</p><p>  Inspur:~ # vi /etc/network</p><p>  Inspur:~ # vi /etc/init.d/network</p><p>  rc_status -v</p><p><b>  fi</b></p&g

67、t;<p>  //#modprobe bonding mode=active-backup miimon=100 primary=eth0</p><p>  //modprobe bonding mode=0 miimon=100 primary=eth0</p><p>  //ifconfig bond0 inet 10.91.11.200 netmask 255.2

68、55.255.0</p><p>  //route add default gw 10.91.11.100</p><p>  //ifenslave bond0 eth0</p><p>  //ifenslave bond0 eth1</p><p>  //ifconfig bond0 up</p><p>&

69、lt;b>  ;;</b></p><p><b>  stop)</b></p><p>  echo Shutting down network interfaces:</p><p>  echo Shutting down network interfaces:</p><p>  //ifen

70、slave -d bond0 eth0</p><p>  //ifenslave -d bond0 eth1</p><p>  //ifconfig bond0 down</p><p>  圖5-2 實(shí)現(xiàn)存儲(chǔ)節(jié)點(diǎn)網(wǎng)絡(luò)負(fù)載均衡</p><p>  5.3 AS500N存儲(chǔ)調(diào)試及服務(wù)器節(jié)點(diǎn)上ISCSI掛載</p><p&

71、gt;  AS500N存儲(chǔ)管理系統(tǒng)出廠(chǎng)設(shè)置的IP 地址為192.168.1.1,在管理員控制臺(tái)的瀏覽器地址欄中輸入: https://192.168.1.1 即可顯示登錄界面,系統(tǒng)默認(rèn)管理員為admin,密碼:root,如圖5-3所示.</p><p>  圖5-3 浪潮海量存儲(chǔ)登陸界面</p><p>  進(jìn)入后顯示AS500N存儲(chǔ)信息,如圖5-4所示。</p><p

72、>  圖5-4 AS500N存儲(chǔ)信息</p><p>  點(diǎn)擊磁盤(pán)管理,物理磁盤(pán)管理顯示信息,如圖5-5所示。列出了系統(tǒng)中一個(gè)raid 卡上當(dāng)前所有可用的磁盤(pán)。系統(tǒng)物理磁盤(pán)狀態(tài)可分為member、hotspare、good 及bad 四種使用狀態(tài),其中member 為成員盤(pán),hotspare 為全局熱備盤(pán),good 為可使用的游離盤(pán),bad 為不可使用的游離盤(pán);hotspare,good 狀態(tài)磁盤(pán)可相互轉(zhuǎn)換

73、,bad 狀態(tài)磁盤(pán)必須先進(jìn)行掃描轉(zhuǎn)換,才可以正常使用。用戶(hù)可點(diǎn)擊按鈕執(zhí)行磁盤(pán)狀態(tài)轉(zhuǎn)換及磁盤(pán)定位顯示操作。</p><p>  圖5-5 物理磁盤(pán)信息</p><p>  點(diǎn)擊RAID管理,Raid列表顯示信息,如圖5-6所示。</p><p>  圖5-6 顯示RAID列表信息</p><p>  點(diǎn)擊新建RAID 顯示信息,如圖5-6所示。

74、</p><p>  圖5-6 創(chuàng)建新RAID</p><p>  創(chuàng)建完Raid后可在上一層查看創(chuàng)建的Raid后的編輯顯示詳細(xì)Raid信息狀態(tài),如圖5-7所示。</p><p>  圖5-7 編輯RAID并顯示RAID狀態(tài)</p><p>  在磁盤(pán)管理中點(diǎn)擊存儲(chǔ)管理可查看存儲(chǔ)邏輯卷,如圖5-8所示。</p><p>

75、;  圖5-8 查看管理存儲(chǔ)卷</p><p>  點(diǎn)擊新建存儲(chǔ)池可添加之前創(chuàng)建的Raid陣列,如圖5-9所示。</p><p>  圖5-9 新建存儲(chǔ)池并添加陣列</p><p>  創(chuàng)建完成后顯示存儲(chǔ)池詳細(xì)信息,如圖5-10所示。</p><p>  圖5-10 心事存儲(chǔ)池詳細(xì)信息</p><p>  點(diǎn)擊邏輯分區(qū)

76、管理創(chuàng)建邏輯分區(qū),如圖5-11所示。</p><p>  圖5-11 創(chuàng)建邏輯分區(qū)</p><p>  點(diǎn)擊新建邏輯分區(qū)開(kāi)始創(chuàng)建邏輯分區(qū),ISCSI的應(yīng)用類(lèi)型為SAN,所以選擇SAN,如圖5-12所示。</p><p>  圖5-12 創(chuàng)建SAN的iscsi的邏輯分區(qū)</p><p>  點(diǎn)擊主頁(yè)面中的SAN管理進(jìn)入SAN的配置,如圖5-13

77、所示。</p><p>  圖5-13 進(jìn)入SAN管理</p><p>  上圖中的“Target iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz”</p><p>  這 Target 名稱(chēng)也稱(chēng)作‘iSCSI Qualified Name'(簡(jiǎn)稱(chēng):iqn),這格式在 iSCSI 規(guī)格書(shū)中有詳細(xì)說(shuō)明:</p

78、><p>  iqn.yyyy-mm.<reversed domain name>[:identifier]</p><p><b>  格式意義</b></p><p>  yyyy-mm 年份-月份 例如:2011-04</p><p>  reversed domain name 倒過(guò)來(lái)的網(wǎng)域名稱(chēng) 例如:l

79、ygtc.iscsi</p><p>  identifier 識(shí)別代號(hào) 例如:storage.disk1.sys1.xyz</p><p>  LUN(Logical Unit Number),“#Lun 0 Path=/dev/dm-1,Type=fileio”這一行中, Path 改成您提供的硬盤(pán)名稱(chēng),此例為“Path=/dev/dm-1”。我們可以使用像是區(qū)塊裝置(Block de

80、vices,例 /dev/sdc)、一般檔案(regular files)、LVM 邏輯卷軸(Logical Volume)與磁碟陣列(RAID)提供給 Initiators 主機(jī)當(dāng)做‘區(qū)塊裝置’(硬盤(pán))。</p><p>  然后選擇隱射的邏輯分區(qū)即可,如圖5-14所示。</p><p>  圖5-14 映射邏輯分區(qū)</p><p>  到此,AS500N上的存儲(chǔ)

81、陣列配置已經(jīng)結(jié)束。</p><p>  現(xiàn)在開(kāi)始將安裝服務(wù)器需要的服務(wù)器iscsi端軟件,該軟件可以從安裝系統(tǒng)所在光盤(pán)中找到,需要符合當(dāng)前所安裝的操作系統(tǒng)版本,本次研究環(huán)境是RHEL 5.6,iscsi的rpm程序包在光盤(pán)根目錄下的Server 目錄中的iscsi-initiator-utils-6.2.0.872-6.el5.i386.rpm。將本文件拷貝到RHEL系統(tǒng)中,然后進(jìn)行iscsi的rmp包安裝。&l

82、t;/p><p><b>  命令處理:</b></p><p>  # rpm -ivh iscsi-initiator-utils-6.2.0.872-6.el5.i386.rpm 安裝iscsi</p><p>  #cat /etc/iscsi/initiatorname.iscsi 察看啟動(dòng)器名稱(chēng)</p><p>

83、  列出本機(jī)target,得到反饋信息:</p><p>  InitiatorName=iqn.1994-05.com.redhat:cd29a6b9aea</p><p>  # service iscsid start 設(shè)置使iscsi服務(wù)在系統(tǒng)啟動(dòng)時(shí)自動(dòng)啟</p><p>  # chkconfig iscsid on設(shè)置使iscsi服務(wù)在系統(tǒng)啟動(dòng)時(shí)自動(dòng)啟&

84、lt;/p><p>  #iscsiadm -m discovery -t sendtargets -p 10.91.11.200:3260</p><p>  列出目標(biāo)AS500N存儲(chǔ)器的target,得到反饋信息:</p><p>  iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz</p><p>

85、;  #/etc/init.d/iscsi restart 重啟iscsi服務(wù)</p><p>  #iscsiadm -m node 查看添加的iscsi的lun信息</p><p>  #iscsiadm -m node -T iqn.2011-04.lygtc.iscsi:storage.disk1.sys1.xyz –p 10.91.11.200:3260 –l</p>

86、;<p>  連接目標(biāo)存儲(chǔ)器LUN,然后就可以看到存儲(chǔ)端所映射的硬盤(pán),可以像使用本地硬盤(pán)一樣使用所映射的存儲(chǔ)空間。</p><p>  #fdisk –l 查看存儲(chǔ)硬盤(pán)</p><p>  第一步:創(chuàng)建新磁盤(pán)分區(qū):</p><p>  用root用戶(hù)執(zhí)行命令#fdisk /dev/sdb,完成硬盤(pán)的分區(qū)。</p><p>  在

87、Command (m for help):提示下輸入n,即創(chuàng)建新的磁盤(pán)分區(qū)。</p><p>  在Command action</p><p>  e extended</p><p>  p primary partition (1-4):提示下輸入p,即創(chuàng)建主分區(qū)。</p><p>  在Partition number (1-4):

88、提示下輸入1 ,即分區(qū)號(hào)</p><p>  在First cylinder (1-522, default 1): 提示下按回車(chē),即指定起始柱面(注意:括號(hào)中尾柱面數(shù)字取決于硬盤(pán)的具體型號(hào))</p><p>  在Last cylinder or +size or +sizeM or +sizeK (1-522, default 522): 提示下按回車(chē),即指定尾柱面。</p>

89、;<p>  在Command (m for help): 提示下輸入p ,即查看分區(qū)狀態(tài),如果看到/dev/sdb1等信息則說(shuō)明分區(qū)成功。</p><p>  在Command (m for help): 提示下輸入t,即轉(zhuǎn)換分區(qū)類(lèi)型</p><p>  在Hex code (type L list codes): 提示下輸入L,即顯示分區(qū)編碼列表</p>&

90、lt;p>  在Hex code (type L list codes): 提示下輸入fd,即LinuxRaid分區(qū)編碼</p><p>  在Command (m for help): 提示下輸入w ,即保存退出</p><p>  第二步:格式化創(chuàng)建磁盤(pán)分區(qū):</p><p>  用root用戶(hù)執(zhí)行命令#mkfs -t ext3 /dev/sdb1,完成硬

91、盤(pán)的格式化。</p><p><b>  第三步:掛載分區(qū)</b></p><p>  用root用戶(hù)執(zhí)行命令#mkdir /data 創(chuàng)建一個(gè)根目錄</p><p>  用root用戶(hù)執(zhí)行命令#mount /dev/sdb1 /data 將sdb1分區(qū) mount to /data</p><p>  完成后需要重新啟

92、動(dòng)Linux主機(jī),以使設(shè)置生效。注意系統(tǒng)開(kāi)機(jī)順序:?jiǎn)?dòng)AS500N存儲(chǔ)系統(tǒng),存儲(chǔ)系統(tǒng)正常啟動(dòng)后依次打開(kāi)兩臺(tái)服務(wù)器</p><p>  5.4 浪潮BCP Cluster部署</p><p>  在兩臺(tái)節(jié)點(diǎn)服務(wù)器上安裝好BCP后,使用PC機(jī)端連接節(jié)點(diǎn)服務(wù)器。在地址欄中先輸入其中一個(gè)節(jié)點(diǎn)公網(wǎng)IP:http://10.91.11.222:29003如圖5-15所示。</p><

93、;p>  圖5-15 初次進(jìn)入BCP集群</p><p>  點(diǎn)擊設(shè)定進(jìn)入bulider第一次要編輯java授權(quán)策略文件,如圖5-16、17所示。</p><p>  圖5-16 編輯JAVA授權(quán)策略</p><p>  編輯完策略文件關(guān)掉,重新啟動(dòng)瀏覽器進(jìn)程才能正常進(jìn)入配置模式。</p><p>  圖5-17 編輯JAVA授權(quán)策略&

94、lt;/p><p>  重啟瀏覽器后進(jìn)入BCP,如圖5-18所示。</p><p>  圖5-18 重啟瀏覽器后進(jìn)入BCP</p><p>  進(jìn)去后右擊集群生成向?qū)ВM(jìn)入集群配置模式,如圖5-19所示。</p><p>  圖5-19 集群生成向?qū)?lt;/p><p>  在此中心服務(wù)器node1的ip公網(wǎng)地址是10.91.

95、11.111私網(wǎng)是172.16.11.111,node2的公網(wǎng)是10.91.11.222.私網(wǎng)是172.16.11.222,漂移地址是10.91.11.223,心跳分區(qū)是/dev/adb1,數(shù)據(jù)分區(qū)時(shí)/dev/adb2數(shù)據(jù)分區(qū)的掛載點(diǎn)是/data,具體操作如圖5-20到5-39所示。</p><p>  圖5-20 添加集群名稱(chēng)并新建節(jié)點(diǎn)服務(wù)器</p><p>  圖5-21 分別加入私網(wǎng)

96、、公網(wǎng)IP信息</p><p>  圖5-22 添加心跳分區(qū)</p><p>  圖5-23心跳分區(qū)用的是裸設(shè)備,裸設(shè)備需要給分區(qū)綁定一個(gè)裸設(shè)備的名字</p><p>  圖5-24 同樣添加第二臺(tái)機(jī)器的信息并創(chuàng)建完成節(jié)點(diǎn)服務(wù)器設(shè)置</p><p>  圖5-25 添加集群資源類(lèi)型</p><p>  圖5-26 添加

97、資源切換組</p><p>  圖5-27 在資源切換組里面添加資源</p><p>  圖5-28 添加漂移ip信息</p><p>  圖5-29 添加共享磁盤(pán)資源</p><p>  圖5-30 創(chuàng)建集群依賴(lài)關(guān)系</p><p>  圖5-31 編輯集群監(jiān)視資源</p><p>  圖5-

98、32 添加資源的監(jiān)控,共享型集群默認(rèn)會(huì)自動(dòng)添加用戶(hù)空間的監(jiān)控</p><p>  圖5-33 添加漂移ip監(jiān)控,linux下沒(méi)有浮動(dòng)ip監(jiān)控選項(xiàng)監(jiān)控類(lèi)型只能選擇ip監(jiān)控</p><p>  圖5-34 添加集群磁盤(pán)資源</p><p>  圖5-35 添加磁盤(pán)的監(jiān)控</p><p>  圖5-36 查看集群最終設(shè)置</p>&l

99、t;p>  圖5-37 然后上傳配置文件重新啟動(dòng)集群服務(wù)器共享型集群的基本配置到現(xiàn)在結(jié)束</p><p>  圖5-38 到此,浪潮BCP Cluster部署完畢</p><p>  5.5 部署VMWare 虛擬化主機(jī)</p><p>  在節(jié)點(diǎn)一中安裝VMware-Workstation-6.5.2-156735.i386.bundle,并將Vmware網(wǎng)

100、絡(luò)設(shè)置為橋模式,并將設(shè)備指向bond0(節(jié)點(diǎn)均為雙網(wǎng)卡綁定模式)如圖5-39所示。</p><p>  圖5-39 設(shè)置網(wǎng)絡(luò)網(wǎng)橋只想bond0</p><p>  使用vmware登入系統(tǒng),點(diǎn)擊Vmware Workstation 出現(xiàn)如圖5-40所示:</p><p>  圖5-40 登陸VMWare WorkStation</p><p>

101、;  點(diǎn)擊Create a new virtual machine創(chuàng)建虛擬機(jī),到如下畫(huà)面將location內(nèi)容修改為/data/VM1,如圖5-41所示。</p><p>  圖5-41 創(chuàng)建虛擬機(jī)</p><p>  到如下畫(huà)面將File name修改為/data/VM1 Windows XP Professional點(diǎn)擊Next出現(xiàn)如圖5-42所示畫(huà)面:</p><

102、p>  圖5-42 檢查虛擬機(jī)配置</p><p>  點(diǎn)擊Finish完成虛擬機(jī)創(chuàng)建。</p><p>  在節(jié)點(diǎn)二中同樣進(jìn)行配置。需要注意的是節(jié)點(diǎn)二中的location內(nèi)容要修改為/data/VM2,F(xiàn)ile name修改為/data/VM2 Windows XP Professional。</p><p>  在/data上為VM1和VM2創(chuàng)建新的分區(qū)文

103、件,部署WINDOWS系統(tǒng)應(yīng)用。</p><p><b>  5.6 系統(tǒng)的優(yōu)點(diǎn)</b></p><p>  使用了基于iscsi的IP-SAN技術(shù),取代了價(jià)格昂貴的SCSI或者光纖SAN存儲(chǔ)。應(yīng)用系統(tǒng)和數(shù)據(jù)的有效分離,數(shù)據(jù)被集中存放在RAID10盤(pán)陣上,不會(huì)因?yàn)楣?jié)點(diǎn)失效(軟、硬件故障)導(dǎo)致數(shù)據(jù)丟失。虛擬機(jī)的快速切換應(yīng)用。任意節(jié)點(diǎn)失效,VM系統(tǒng)都可迅速在另一節(jié)點(diǎn)重新部

104、署。該應(yīng)用方案為150個(gè)節(jié)點(diǎn)提供服務(wù),不會(huì)出現(xiàn)任何阻塞問(wèn)題。使用了虛擬化技術(shù),減少了硬件成本投入,提高了系統(tǒng)資源的使用率。</p><p><b>  總結(jié)</b></p><p>  從著手選擇論文題目到論文的完成,每走一步都是新的嘗試與挑戰(zhàn),對(duì)操作系統(tǒng)、網(wǎng)絡(luò)和其它的專(zhuān)業(yè)理論知識(shí)有了更深入的理解和認(rèn)識(shí)。從對(duì)HA與LVS等相關(guān)技術(shù)很不了解的狀態(tài),開(kāi)始學(xué)習(xí)和試驗(yàn),查看相

105、關(guān)的網(wǎng)站資料,讓自己頭腦中模糊的概念逐漸清晰,使系統(tǒng)一步步完善起來(lái),最終實(shí)現(xiàn)了設(shè)計(jì)要求與目標(biāo)。</p><p>  通過(guò)這次畢業(yè)設(shè)計(jì),了解了集群,高可用性集群,均衡負(fù)載集群存在的意義和價(jià)值。學(xué)習(xí)了怎么利用VMware虛擬化技術(shù)搭建網(wǎng)絡(luò)測(cè)試平臺(tái),了解了Apache網(wǎng)站服務(wù)器軟件,存儲(chǔ)的概念,RAID技術(shù),網(wǎng)絡(luò)文件系統(tǒng)NFS以及HA集群項(xiàng)目下的HeartBeat和LVS集群項(xiàng)目下的Ipvsadm開(kāi)源集群軟件,并且根據(jù)

106、其兩者的不足進(jìn)行了改進(jìn),完成了三層構(gòu)架的集群設(shè)計(jì),配置及測(cè)試,并取得了預(yù)期的效果。</p><p>  計(jì)算機(jī)集群系統(tǒng),以及基于Linux操作系統(tǒng)的計(jì)算機(jī)集群,目前都是計(jì)算機(jī)應(yīng)用領(lǐng)域里比較熱門(mén)的內(nèi)容。隨著互聯(lián)網(wǎng)應(yīng)用的發(fā)展,如現(xiàn)在非常火熱的云計(jì)算技術(shù),就是高可用,高可靠,均衡負(fù)載,高性能計(jì)算的綜合,今后的集群技術(shù)一定會(huì)沿著這個(gè)方向發(fā)展。</p><p><b>  參考文獻(xiàn)<

107、/b></p><p>  [1] 虛擬化與云計(jì)算小組 . 虛擬化與云計(jì)算.北京:電子工業(yè)出版社,2009.</p><p>  [2] 鳥(niǎo)哥 . 鳥(niǎo)哥的Linux私房菜基礎(chǔ)學(xué)習(xí)篇(第2版)[M].人民郵電出版社.2007-9.</p><p>  [3] 鳥(niǎo)哥 . 鳥(niǎo)哥的Linux私房菜:服務(wù)器架設(shè)篇(第2版)[M].機(jī)械工業(yè)出版社.2008-1.</

108、p><p>  [4] 高俊峰 . 循序漸進(jìn)Linux基礎(chǔ)知識(shí)、服務(wù)器搭建、系統(tǒng)管理、性能調(diào)優(yōu)、集群應(yīng)用[M].人民郵電出版社.2009-12.</p><p>  [5] 趙攀 . LVS集群技術(shù)在校園網(wǎng)中的研究與設(shè)計(jì)[J].四川理工學(xué)院報(bào)(自然科學(xué)版).2009.02期.</p><p>  [6] 張展 . 用Apache架設(shè)WEB服務(wù)器[J].微電腦世界.200

109、5.07期.</p><p>  [7] 袁宜英 . IPVS集群系統(tǒng)的改進(jìn)設(shè)計(jì)與實(shí)現(xiàn).現(xiàn)代計(jì)算機(jī)(專(zhuān)業(yè)版)[J].2008.05期.</p><p>  [8] 張巍 . 企業(yè)虛擬化實(shí)戰(zhàn)-VMware篇[M].機(jī)械工業(yè)出版社.2009-8.</p><p>  [9] 胡曉軍 . Linux服務(wù)器集群系統(tǒng)的研究和應(yīng)用[D].廣東.廣東工業(yè)大學(xué).2005年.<

110、/p><p>  [10] 李中福 . 計(jì)算機(jī)集群技術(shù)應(yīng)用研究[D].北京.中國(guó)地質(zhì)大學(xué).2006年.</p><p>  [11] 王鵬 . 基于IP的網(wǎng)絡(luò)存儲(chǔ)[J].企業(yè)家天地下半月刊.2007.03期.</p><p><b>  致謝</b></p><p>  首先要感謝我的指導(dǎo)教師XX老師。在畢業(yè)設(shè)計(jì)期間,我得到

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論