版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、<p> IBM PLATFORM高性能計算平臺在研究云中的應(yīng)用</p><p> [摘 要]在大港油田勘探開發(fā)項(xiàng)目的協(xié)同研究中,由于軟件系統(tǒng)彼此獨(dú)立,安裝運(yùn)行在不同的系統(tǒng)平臺上,存在應(yīng)用流程復(fù)雜、資源分配和數(shù)據(jù)資源共享困難等問題。為此, 在Linux平臺下,應(yīng)用IBM PLATFORM高性能計算技術(shù),實(shí)現(xiàn)了各軟件系統(tǒng)間的界面集成及軟件資源的跨平臺共享,開發(fā)了高效的自助式智能集群部署和可定制化的界面
2、服務(wù),形成了優(yōu)化的勘探開發(fā)協(xié)同研究環(huán)境。 </p><p> [關(guān)鍵詞]協(xié)同研究 遠(yuǎn)程訪問 PLATFORM 一體化應(yīng)用平臺 自助式智能集群部署 </p><p> 中圖分陳類號:TP393.4 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-914X(2015)34-0217-01 </p><p><b> 1 問題的提出 </b></p&
3、gt;<p> 大港油田信息中心當(dāng)前對于計算資源的使用與管理,采用傳統(tǒng)的集群式管理方案,這種資源固定分配的方式雖然能夠?yàn)橄鄳?yīng)部門分配適用的資源,但是對于部門間需求的改變以及資源的按需調(diào)整無法提供一個靈活的、便捷的方法。無形中增加了資源管理部門的工作量以及工作難度,同時也無法將現(xiàn)有計算資源的利用充分的發(fā)揮出來。其次,信息中心所管理的數(shù)模、建模等應(yīng)用軟件,希望能夠以桌面云的方式為用戶提供遠(yuǎn)程訪問接口,并且按需來自動分配登陸,
4、改變傳統(tǒng)的手動建立VNC登陸服務(wù)。 </p><p> 針對于此類問題,為大港油田信息中心建立一套完整的云管理平臺,在此基礎(chǔ)之上再根據(jù)信息中心針對于業(yè)務(wù)系統(tǒng)的使用動態(tài)建立高性能計算集群、數(shù)模、建模機(jī)群,將能在很大程度上解決上述問題,建立起適用于大港油田的、技術(shù)領(lǐng)先的高性能綜合管理平臺。 </p><p> 2 研究云平臺建設(shè)內(nèi)容 </p><p> 大港油田經(jīng)
5、過十多年的信息化建設(shè),在勘探開發(fā)信息系統(tǒng)建設(shè)方面取得了一定的成績,緊緊圍繞“為油田主營業(yè)務(wù)發(fā)展提供強(qiáng)有力信息技術(shù)支撐”這一核心主題,大力推進(jìn)信息化基礎(chǔ)建設(shè)?,F(xiàn)已擁有了大中型計算機(jī)服務(wù)器,如針對勘探開發(fā)業(yè)務(wù)研究,配置了64臺高性能刀片服務(wù)器,其中48臺支持常規(guī)解釋和數(shù)值模擬應(yīng)用,16臺圖形刀片服務(wù)器支Geoprobe、Petrel等三維解釋類軟件應(yīng)用,存儲容量達(dá)到了130TB,整個高性能計算環(huán)境達(dá)到了128個CPU,1024核心數(shù),內(nèi)存總
6、量達(dá)到8TB,同時支持200個以上的用戶開展勘探開發(fā)研究工作。在此基礎(chǔ)上,部署了如OpenWorks、Geoframe地震解釋系統(tǒng)、Petrel/SKUA/RMS/Direct地質(zhì)建模系統(tǒng)、Eclips數(shù)字模擬系統(tǒng)、ComPass以及Assetview鉆井工程設(shè)計系統(tǒng)等應(yīng)用軟件,并通過高性能PCM-AE云管理平臺和獨(dú)立仿真等技術(shù),實(shí)現(xiàn)了基礎(chǔ)設(shè)施及專業(yè)應(yīng)用的集中部署、應(yīng)用和管理,初步形成了當(dāng)前大港油田的勘探開發(fā)研究環(huán)境格局。 </p
7、><p> 3 研究云平臺構(gòu)架方案 </p><p> 針對于大港油田的云管理平臺建設(shè),以全面整合信息中心現(xiàn)有基礎(chǔ)設(shè)施,并為日后新硬件環(huán)境的方便擴(kuò)容為前提,IBM Platform Computing 所推出的云平臺管理軟件 PCMAE 將為大港油田信息中心提供整體的云平臺基礎(chǔ)框架。PCMAE 是一個面向高性能計算的云管理平臺,可以整合數(shù)據(jù)中心的計算資源、存儲資源和網(wǎng)絡(luò)資源,為IT資源的統(tǒng)
8、一整合、管理與分配提供有力的技術(shù)支持;同時,提供了最終用戶直接請求資源的自助服務(wù)平臺,通過豐富的策略為用戶匹配和供給資源,帶給最終客戶靈活便捷的云資源申請和使用模式。另外,在虛擬化軟件之上提供它們所不具備的虛擬機(jī)靈活定制與整體管理功能,對虛擬機(jī)集群及上層 HPC 集群進(jìn)行統(tǒng)一的自動部署、監(jiān)控和資源調(diào)度,實(shí)現(xiàn)資源的最大化利用與服務(wù)的最快交付。 </p><p><b> 4 平臺展示 </b>
9、;</p><p> 4.1 協(xié)同研究云環(huán)境全面建成,并投入應(yīng)用 </p><p> 云計算的核心是多用戶、自動化管控、彈性計算,信息中心通過部署Platform云計算管理平臺,極大簡化研究云環(huán)境管理,實(shí)現(xiàn)集群快速部署與調(diào)整、資源統(tǒng)一管理和自動調(diào)度,是中石油第一個全面云化的研究環(huán)境。在云平臺基礎(chǔ)上,建立兩套高性能計算集群、遠(yuǎn)程可視化、自助式服務(wù)。與現(xiàn)有數(shù)模建模等應(yīng)用軟件進(jìn)行集成。 &l
10、t;/p><p> 通過云管理平臺的應(yīng)用,信息中心可以做到將整個計算資源放置到云端,快捷的部署物理機(jī)操作系統(tǒng),以及快速創(chuàng)建虛擬機(jī)并且加入到高性能計算平臺,使得原來需要數(shù)周的工作量簡化到一個小時以內(nèi)。 </p><p> 4.2 主流勘探開發(fā)研究軟件的集中管理使用 </p><p> 取代了以往分散式的管理方法,將主流研究軟件全部集中在了云管理平臺之中,用戶通過登錄
11、統(tǒng)一門戶頁面,選擇需要使用的專業(yè)應(yīng)用軟件。高性能調(diào)度平臺會在云端資源中分配出最適合的計算節(jié)點(diǎn)供用戶使用。 </p><p> 在原有軟件的基礎(chǔ)之上,新部署了OpenWorks 5000.8,Geofrme 4.5兩套地震解釋環(huán)境以及Petrel 2013建模系統(tǒng)、Eclipse2013數(shù)值模擬系統(tǒng)、隨鉆分析、鉆井設(shè)計,軟件種類超過10種,并在不斷擴(kuò)展之中。 </p><p> 4.3統(tǒng)
12、一的作業(yè)管理 </p><p> 當(dāng)用戶提交計算作業(yè)后,用戶隨時可以在門戶頁面上看到作業(yè)的運(yùn)行狀態(tài),并且隨時查看作業(yè)計算過程中所產(chǎn)生的數(shù)據(jù)文件、輸出信息。無論作業(yè)的量級多大,都能快速定位,即便數(shù)月之前提交的作業(yè)數(shù)據(jù)也能很方便的查看。 </p><p> 作為云平臺管理員則可以查看所有用戶的作業(yè)信息,對用戶的使用情況做到清晰了解,當(dāng)發(fā)現(xiàn)任何作業(yè)出現(xiàn)異常時,在門戶界面之中就能處理,不必再尋
13、找該作業(yè)所運(yùn)行的節(jié)點(diǎn),登錄該節(jié)點(diǎn)后才能處理。 </p><p> 6 應(yīng)用平臺實(shí)現(xiàn)的功能 </p><p> 6.1 自助式智能集群部署 </p><p> 提供了簡單友好的自服務(wù)門戶界面,用戶只需通過門戶提供的統(tǒng)一認(rèn)證功能,只需要一次登錄認(rèn)證,就能直接調(diào)用運(yùn)行集成在大港油田勘探開發(fā)協(xié)同研究云一體化應(yīng)用平臺上的20余種應(yīng)用軟件,在調(diào)用軟件的同時, 系統(tǒng)在后臺自
14、動為用戶完成應(yīng)用環(huán)境、硬盤資源的配置, 解決了用戶應(yīng)用流程繁瑣, 較大地提高了用戶生產(chǎn)研究工作效率。 </p><p> 6.2 跨平臺軟件資源的共享 </p><p> 在勘探開發(fā)專業(yè)軟件一體化應(yīng)用平臺上,整合了新老軟件資源,集成了基于windows、Linux等不同平臺上運(yùn)行的軟件, 在同一臺客戶端工作站,用戶既能調(diào)用windows系統(tǒng)下的專業(yè)軟件,也能運(yùn)行Linux系統(tǒng)下的軟件,
15、實(shí)現(xiàn)了軟件資源的跨平臺共享, 大大提高了勘探開發(fā)軟件的利用率。 </p><p> 6.3 顯著減少了硬件投資和運(yùn)行維護(hù)費(fèi)用 </p><p> 使用集中部署和應(yīng)用虛擬化技術(shù)后,客戶端不再需要配備高性能專業(yè)圖卡,不再需要不斷升級客戶機(jī)硬件,不再擔(dān)心用戶數(shù)據(jù)丟失,不再經(jīng)常到用戶端安裝部署專業(yè)軟件,顯著減少了日后硬件投資和運(yùn)行維護(hù)費(fèi)用。 </p><p><b
16、> 7 結(jié)論 </b></p><p> 通過專業(yè)研究軟硬件集中部署和自助式智能集群部署技術(shù)在大港油田實(shí)踐,搭建了支撐油田勘探開發(fā)協(xié)同研究工作的軟硬件集中部署、數(shù)據(jù)統(tǒng)一存儲、備份統(tǒng)一管理、應(yīng)用統(tǒng)一發(fā)布、用戶單點(diǎn)使用的集成應(yīng)用環(huán)境,實(shí)現(xiàn)了基于Linux環(huán)境下不同平臺應(yīng)用系統(tǒng)界面集成和軟件資源跨平臺共享,把20多種異構(gòu)專業(yè)軟件統(tǒng)一在一個平臺中集中發(fā)布管理起來,徹底解決了以往單機(jī)作戰(zhàn)應(yīng)用模式帶來各
17、種弊端,保證了油田各項(xiàng)研究工作的高效進(jìn)行,具有良好的應(yīng)用前景。 </p><p><b> 參考文獻(xiàn) </b></p><p> [1]張軍華, 臧勝濤,單聯(lián)瑜,等. 高性能計算的發(fā)展現(xiàn)狀及趨勢[J]. 石油地球物理勘探, </p><p> [2]趙改善, 包紅林. 集群計算技術(shù)及其在石油工業(yè)中的應(yīng)用[J]. 石油物探, </p&
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 高性能計算平臺的設(shè)計與應(yīng)用.pdf
- CUDAD在高性能計算中的應(yīng)用.pdf
- 面向金融風(fēng)險度量的高性能科學(xué)計算應(yīng)用平臺.pdf
- 群智能算法高性能計算平臺的研究.pdf
- 高性能云中的GPU虛擬化方法的研究與實(shí)現(xiàn).pdf
- 面向高性能計算平臺的Hadoop框架研究及優(yōu)化.pdf
- 基于GPU的高性能計算研究與應(yīng)用.pdf
- 龍芯平臺上高性能計算的性能優(yōu)化關(guān)鍵問題研究.pdf
- 高性能計算集群技術(shù)應(yīng)用研究.pdf
- MPI高性能云計算平臺關(guān)鍵技術(shù)研究.pdf
- 高性能ECU平臺的開發(fā)及其應(yīng)用研究.pdf
- 全計算法在高性能混凝土(hpc)配合比設(shè)計中的應(yīng)用
- 水利科學(xué)高性能并行計算平臺構(gòu)建.pdf
- 基于機(jī)群的高性能計算平臺構(gòu)建方案v4.0
- 高性能計算在石油工程領(lǐng)域的應(yīng)用
- 一體化高性能計算平臺采購項(xiàng)目
- 高性能計算系統(tǒng)
- IBM云計算平臺下NodeJS應(yīng)用支持環(huán)境的設(shè)計與實(shí)現(xiàn).pdf
- 基于FPGA的高性能計算研究.pdf
- 混合異構(gòu)眾核平臺上的高性能計算金融算法研究.pdf
評論
0/150
提交評論