當(dāng)我參觀完畢位于德國(guó)斯圖加特的EBC和位于慕尼黑附近的萊布尼茨超級(jí)計(jì)算中心后,才明白玩轉(zhuǎn)超算需要這么做才好。
構(gòu)建全產(chǎn)業(yè)鏈的HPC用戶體驗(yàn)和測(cè)試中心
聯(lián)想在收購(gòu)IBM System x之后,也整合了之前IBM System x遍布全球的研發(fā)和創(chuàng)新中心 。在整合這些研發(fā)和創(chuàng)新資源后,也融入到了聯(lián)想全球研發(fā)和創(chuàng)新中心的體系里面。
目前形成了聯(lián)想Briefing Centers(EBC)和 Innovation Centers(IC)兩個(gè)強(qiáng)大的創(chuàng)新體系,只不過(guò)EBC更多是專注用戶應(yīng)用測(cè)試和解決方案演示,IC更多專注技術(shù)研發(fā)和創(chuàng)新。
聯(lián)想在北京雖然也有 EBC和IC,并且北京的EBC也有HPC集群,但是,在HPC集群規(guī)模上還是位于德國(guó)斯圖加特的EBC最大,該EBC面向全球企業(yè)級(jí)用戶提供測(cè)試、應(yīng)用支持服務(wù)。
據(jù)聯(lián)想在斯圖加特EBC的相關(guān)人士介紹,這個(gè)HPC大集群,擁有180個(gè)節(jié)點(diǎn),同時(shí)采用了GPFS存儲(chǔ)服務(wù)器S4400(包括22\24\26型號(hào))。
其中,需要指出的是180個(gè)節(jié)點(diǎn)分成兩個(gè)網(wǎng)絡(luò)連接方面,一個(gè)采用英特爾Omnipath 網(wǎng)絡(luò)連接,一個(gè)采用Mellanox EDR Infiniband網(wǎng)絡(luò)連接。
因?yàn)檫@個(gè)HPC集群主要用于測(cè)試,配置會(huì)有所根據(jù)實(shí)際測(cè)試和用戶應(yīng)用需求情況而靈活調(diào)整。
比如現(xiàn)在該HPC集群擁有SAP環(huán)境演示,包括針對(duì)性的POC和benchmark rack配置,如x3950 X6 、4個(gè)x3850、2個(gè)x3650 M5。
該HPC集群還針對(duì)用戶比較關(guān)心的VMware、SUSE開(kāi)放堆棧、RedHat開(kāi)放堆棧而構(gòu)建應(yīng)用環(huán)境,也針對(duì)NUTANIX、 SimpliVity、Datacore、 Cloudian、StorSelect等等合作廠商,構(gòu)建聯(lián)想的解決方案,只是有些最新的解決方案展示需要在3-5個(gè)月之后正式對(duì)外展示出來(lái)。
在斯圖加特的EBC,阿明也看到了聯(lián)想現(xiàn)有的比較常見(jiàn)的產(chǎn)品,比如x3950 X6 、 x3850、 x3650 M5等拳頭服務(wù)器產(chǎn)品,同時(shí)也看到了來(lái)自友商的配件,如英特爾750 SSD 、三星的內(nèi)存和SSD、Fusion-io的閃存加速卡等等,這些配件都是經(jīng)過(guò)了聯(lián)想斯圖加特創(chuàng)新中心測(cè)試過(guò),然后融入到了聯(lián)想服務(wù)器和存儲(chǔ)產(chǎn)品方案里面。
二
在超算中心中智慧應(yīng)用水冷系統(tǒng)
LRZ超算中心
順著去斯圖加特參觀EBC的機(jī)會(huì),阿明也去參觀了德國(guó)。
德國(guó)國(guó)際超算中心
位于德國(guó)慕尼黑附近萊布尼茨超級(jí)計(jì)算中心LRZ現(xiàn)在已經(jīng)作為,為全歐洲HPC用戶提供服務(wù)和技術(shù)支持。該中心總共擁有50PB存儲(chǔ),16000計(jì)算節(jié)點(diǎn)。
LRZ超算中心的IT設(shè)施包括了3層樓6個(gè)房間3160.5平米;基礎(chǔ)設(shè)施空間6393.5平米,總共約上萬(wàn)平米空間。整個(gè)超算中心采用了風(fēng)冷和水冷兩個(gè) 散熱系統(tǒng)。在整個(gè)水冷系統(tǒng)中有一部分也采用了水冷的冷卻器,將水冷系統(tǒng)中的熱水通過(guò)冷卻器降溫到系統(tǒng)所需冷水的溫度進(jìn)行循環(huán)。
另外,目前針對(duì)LRZ超算中心中部分設(shè)施也采用了Free Cooling自然水冷系統(tǒng),往后會(huì)在整個(gè)LRZ超算中心全部采用該Free Cooling自然水冷系統(tǒng)。Free Cooling自然水冷系統(tǒng)就是采用冷熱水自然循環(huán),熱水不采用冷卻器散熱降溫而是讓其自然散熱降溫。
在LRZ超算中心采用水冷系統(tǒng)的第三層基礎(chǔ)設(shè)施中,管道眾多,但冷熱水管道走向分明。針對(duì)整個(gè)數(shù)據(jù)中心水冷系統(tǒng)監(jiān)測(cè)采用了非常慎密的機(jī)制,一旦有自動(dòng)監(jiān)測(cè)到系統(tǒng)某點(diǎn)漏水,整個(gè)水冷系統(tǒng)會(huì)自動(dòng)關(guān)閉,以保障整個(gè)數(shù)據(jù)中心的安全。
整個(gè)LRZ超算中心采用兩個(gè)大系統(tǒng)組成,每個(gè)系統(tǒng)都是采用IB網(wǎng)絡(luò)連接,但兩個(gè)計(jì)算系統(tǒng)之間沒(méi)有連接共享,但存儲(chǔ)部分是共享的。
一是以IBM System x iDataPlex核心組建,采用了第一代水冷系統(tǒng),擁有9216個(gè)節(jié)點(diǎn),總共需要7.9立方米的水在水冷系統(tǒng)里面循環(huán)使用。因?yàn)椴恍枰獑为?dú)的風(fēng)扇,因此機(jī)房比較安靜。
二是以Lenovo NeXtScale WCT 核心組建,采用了第二代水冷系統(tǒng),擁有3072個(gè)計(jì)算節(jié)點(diǎn),實(shí)現(xiàn)了更高的經(jīng)濟(jì)性和制冷效果,沒(méi)有風(fēng)扇自然降低能耗、沒(méi)有冷卻器也同樣降低能耗、采用軟件管理也可以降低能耗,每年可以總共因?yàn)榻档湍芎亩?jié)約180萬(wàn)歐元左右。
為此,LRZ超算中心也將兩個(gè)大系統(tǒng)因降溫帶出來(lái)的熱能再利用,利用系統(tǒng)散熱后的余熱對(duì)建筑物進(jìn)行供暖。不過(guò),這需要構(gòu)建一個(gè)配套設(shè)施就能實(shí)現(xiàn)。
目前LRZ超算中心擁有50人專業(yè)運(yùn)維人員,計(jì)算和存儲(chǔ)資源面向全歐洲免費(fèi)開(kāi)放,但是任何用戶、機(jī)構(gòu)、公司想要獲得LRZ超算中心免費(fèi)計(jì)算資源,需要提交一份詳細(xì)的使用計(jì)劃,LRZ有專門委員會(huì)投票來(lái)評(píng)定是否免費(fèi)提供,并且評(píng)估提供怎樣的支持。
三
構(gòu)建HPC生態(tài)圈贏得前進(jìn)新動(dòng)力
任何一個(gè)超算應(yīng)用當(dāng)然離不開(kāi)專業(yè)的超算中心提供的計(jì)算服務(wù),那么超算中心的IT系統(tǒng)和基礎(chǔ)設(shè)施構(gòu)建就非常重要。因?yàn)槭且粋€(gè)長(zhǎng)期的戰(zhàn)略投資過(guò)程,因此必須在能耗上考慮更多的問(wèn)題。
為此,阿明從EBC和LRZ看到了水冷系統(tǒng)對(duì)于數(shù)據(jù)中心當(dāng)前帶來(lái)的價(jià)值。當(dāng)你親自站在水冷系統(tǒng)構(gòu)建的數(shù)據(jù)中心里面,自然可以享受到水冷帶來(lái)的多種愉悅體驗(yàn)。
因此,無(wú)論是針對(duì)EBC還是LRZ,對(duì)于用戶的體驗(yàn)和服務(wù)非常重要。聯(lián)想在存儲(chǔ)、服務(wù)器、網(wǎng)絡(luò)等多個(gè)領(lǐng)域可以構(gòu)建基于用戶HPC的需求方案,也是贏得LRZ這樣用戶長(zhǎng)期使用和認(rèn)可的關(guān)鍵。
這種基于用戶在技術(shù)創(chuàng)新需求和具體應(yīng)用挑戰(zhàn)下的HPC生態(tài)體系的構(gòu)建,也是聯(lián)想可以贏得更多前進(jìn)動(dòng)力的源泉。同時(shí),一個(gè)基于HPC及其相關(guān)測(cè)試和應(yīng)用的生態(tài)圈形成,對(duì)于用戶也將帶來(lái)非常大的幫助。
分享到微信 ×
打開(kāi)微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁(yè)分享至朋友圈。