時間:2018-04-16 16:19:55來源:網(wǎng)絡轉(zhuǎn)載
這幾年,在IT技術(shù)與趨勢的急劇變化下,數(shù)據(jù)中心也隨之面臨許多挑戰(zhàn)。高密度數(shù)據(jù)中心已經(jīng)成為企業(yè)必須面對的課題。當數(shù)據(jù)中心單一機柜機架功率密度每年不斷增長已成一股趨勢,企業(yè)勢必得找到更有效的方法來面對電力、冷卻與空間的挑戰(zhàn)。
隨著人們對服務的要求愈益嚴苛,企業(yè)必須想方設法滿足消費者7×24小時可用性的期望。服務器數(shù)量不斷增長,在此同時,更多的運算能力與資源也被收納在愈來愈小的外殼中,從微型服務器(SmallFormFactor,SFF)、刀鋒服務器(BladeServer)到超大規(guī)模(Hyperscale)服務器以及用來實現(xiàn)更彈性框架的組合式基礎架構(gòu)(ComposableInfrastructure),都是因應此需求發(fā)展而誕生的解決方案。
更高密度的服務器意味著單臺服務器需要更高的功耗,隨著全球?qū)δ茉聪牡娜遮呹P(guān)注,企業(yè)也開始認真看待能源效率議題以及環(huán)境責任。虛擬化技術(shù)為企業(yè)帶來解決方案,讓單臺服務器得以更多的工作負載,物盡其用。與此同時,全球云端化的浪潮也開始發(fā)酵,現(xiàn)階段,許多企業(yè)早已將云端優(yōu)先(Cloudfirst)視為戰(zhàn)略之一,愈來愈多的IT預算投入在與“云端”相關(guān)的IT基礎架構(gòu)以及軟件之中,部份企業(yè)組織或是IT供貨商更是以“Cloudonly”作為主要的策略。當服務器被密集置于云端數(shù)據(jù)中心中,勢必將給數(shù)據(jù)中心帶來更高的運維挑戰(zhàn)。
容器(Container)技術(shù)發(fā)展愈來愈成熟,未來在單一服務器中,通過這項被稱為輕量級虛擬化技術(shù)的協(xié)助,將可望能運行更多的應用程序;移動化與社群平臺發(fā)展后,快速激增的數(shù)據(jù)需要大量的運算力來加以分析萃取數(shù)據(jù)金礦,物聯(lián)網(wǎng)(InternetofThings,IoT)還在持續(xù)發(fā)展,未來通過傳感器所收集數(shù)據(jù),最終將導向后端的數(shù)據(jù)中心,以便進行巨量數(shù)據(jù)分析…。這些變化也讓數(shù)據(jù)中心趨向了高密度發(fā)展,隨著數(shù)據(jù)中心設備密度快速增長,以傳統(tǒng)思維建構(gòu)的機房卻已不敷使用。
高密度的潛在問題
根據(jù)ColocationAmerica調(diào)查,2008年數(shù)據(jù)中心單一機柜機架功率密度約莫在6kW左右,到了2016年已然達到了12kW,預估到了2020年,數(shù)據(jù)中心單一機柜機架功率密度將有可能達到16.5kW。事實上,在某些改造案例中,例如Intel將兩座芯片廠改造成節(jié)能高密度數(shù)據(jù)中心,單一機柜機架功率密度更是高達43kW。
圖一單一機柜機架功率密度發(fā)展趨勢
來源:ColocationAmerica,2014
當數(shù)據(jù)中心單一機柜機架功率密度每年不斷增長已成一股趨勢,企業(yè)勢必得找到更有效的方法來面對各式各樣迎面而來的挑戰(zhàn)。舉例而言,高密度實現(xiàn)了更小空間的使用密度,但相對的,系統(tǒng)故障的反應時間將大幅地被縮短,一旦遇到電源故障,大量由設備制造的“熱”將無法被帶走,將導致服務器中止運轉(zhuǎn)。
日漸提升的功率密度也遠遠超過大部分舊型設施的處理能力。早些年,數(shù)據(jù)中心可見到每機柜6kW的設計,但是面對15kW以上的高密度機柜,顯然不符所需。而企業(yè)使用云端運算或巨量數(shù)據(jù)分析這類需要大量資源的技術(shù)時,也會面臨可用與所需容量的差距擴大問題,因為以往在設計數(shù)據(jù)中心的冷卻空調(diào)時,會以假設IT的工作負載是平均且分散的情況,但實際的運行的環(huán)境卻不是如此,尤其在某些高密度機柜中,企業(yè)將發(fā)現(xiàn)制冷量遠遠不足。
數(shù)據(jù)中心原先所設計的備援機制也可能因此而消失,原本以N+1設計的不間斷電源系統(tǒng)(UPS)與冷卻空調(diào),因為容量不足而被迫全面啟用運轉(zhuǎn),進而喪失了備援的功能。此外,部署虛擬化方案后,IT人員可以動態(tài)地遷移虛擬機,但是數(shù)據(jù)中心的負載也因此而跟著轉(zhuǎn)變,熱點位置變得難以捉摸,電力需求也會跟著變動,而導致不必要的停機。
模塊化興起提供更高靈活性
顯然地,高密度數(shù)據(jù)中心仍存有許多潛在問題。數(shù)據(jù)中心管理人員將面臨更大的壓力,除了維護日益密集的運算環(huán)境,并且改善可用性之外,同時還得降低成本,提高效率。所幸,業(yè)界專家們正在將模塊化的概念融入到他們?yōu)閿?shù)據(jù)中心所設計的設備與產(chǎn)品中,以便為數(shù)據(jù)中心帶來更靈活的彈性,并且為未來的各種工作負載做好準備。
現(xiàn)階段,主要的模塊化概念會應用在空間與設施的設計之中??臻g模塊化指的是從IT基礎設備、機柜以及提供IT設備運行的設施,都是由模塊構(gòu)成,彼此之間具有相依與關(guān)聯(lián)性。在實務上,多半還是會依照企業(yè)既有的數(shù)據(jù)中心空間,在評估現(xiàn)有服務對容量的需求以及未來的擴充考慮后,進而區(qū)隔出小空間,并且將其視為模塊。而設施的模塊化,指的是在基礎設施,包含電力系統(tǒng)(不間斷電源系統(tǒng)UPS、配電柜)、機柜式空調(diào)、冷卻器、機架、冷熱信道密閉系統(tǒng)等等,實行模塊化設計。
“IT技術(shù)發(fā)展日新月異,基礎架構(gòu)正在朝向微服務(Microservice)架構(gòu)發(fā)展。簡單來看,微服務架構(gòu)就是利用模塊化的方式組合出復雜的大型應用程序,事實上,在多年前,數(shù)據(jù)中心基礎設施早就已經(jīng)運用模塊化的優(yōu)點,開發(fā)出模塊化方案,以提供更高的靈活性與擴充彈性,協(xié)助企業(yè)因應擴充需求,并且克服電力、冷卻空調(diào)不足以及空間上的挑戰(zhàn)?!迸_達關(guān)鍵基礎架構(gòu)事業(yè)部(MCIS)總經(jīng)理蔡文蔭如此說。
UPS高效模塊化自我診斷機制減少斷電風險
根據(jù)一項調(diào)查,造成數(shù)據(jù)中心停電的原因,有近五成的受訪者認為主因是UPS設備故障所引起,足以顯見UPS在維系數(shù)據(jù)中心的重要性。尤其數(shù)據(jù)中心高密度化后,更換老舊的UPS系統(tǒng)也是一項必要的工作,效率是其中的考慮原因之一。十年前所設計的UPS系統(tǒng),在以40%利用率運作及服務雙電源輸入服務器時,通常效率在85%以下,現(xiàn)今的UPS系統(tǒng)運作效率更為優(yōu)異。以臺達的解決方案為例,在20%的負載情況下,DPH500kVA系列UPS的AC-AC可以達到95%左右,最高效率可以達到96.5%,節(jié)省了明顯的能源成本。
另一項考慮則是空間的有效運用率。一般而言,數(shù)據(jù)中心都會規(guī)劃電力室以設置與電力相關(guān)之設施,但是電力室的土地面積也有其極限,當數(shù)據(jù)中心朝向高密度發(fā)展,備援電力也需要跟著增加,但電力室空間有限,這時企業(yè)就可以置換單機高容量的UPS系統(tǒng),例如臺達針對大型數(shù)據(jù)中心推出的ModulonDPH500kVA模塊化UPS,僅占用19英寸機柜的空間,提供目前業(yè)界最高的功率密度,并行擴展也可以配置多達8個單元,提供4MVA的最大功率容量。
由于具有自我診斷與老化偵測機制,能偵測電池、風扇、IGBT模塊、DC電容與AC電容,預防性維護減少故障斷電的風險,保護客戶的設備投資。
對于企業(yè)而言,模塊化UPS的另一項優(yōu)勢,便在于電源模塊采用即插即用設計,只須要在適當?shù)臅r間投入適量的投資成本,就能進行單一系統(tǒng)的垂直整合和水平并機整合的容量擴充,企業(yè)可依據(jù)初期容量需求及未來營運拓展性,彈性采購UPS,進而降低投資成本,讓效益優(yōu)化。
機柜式空調(diào)臨近熱點降低耗損
隨著服務器與IT相關(guān)設備的密度愈來愈高,對設施的要求也愈來愈嚴苛。除了更高供電密度之外,散熱也成為一項難題,眾所周知,數(shù)據(jù)中心的冷卻設計均假設IT的工作負載是平均且分散的情況,但在真實的企業(yè)環(huán)境中,卻可能因為虛擬機的動態(tài)遷移或是IT設備部署不當,而產(chǎn)生熱源分布不均勻的現(xiàn)象。
顯然地,制冷量不足是高密度數(shù)據(jù)中心普遍會面臨的挑戰(zhàn),機柜式精密空調(diào)的優(yōu)勢便在于臨近高密度機柜,不同于房間級精密空調(diào)送出的冷氣,在高架地板輸送的過程中產(chǎn)生耗損,機柜式精密空調(diào)可就近提供足夠的制冷力,以消除熱點,加上配有高節(jié)能EC風扇以及變頻流量控制,更可達到節(jié)能目的。
機柜式空調(diào)同樣也有模塊化設計,以機柜式精密空調(diào)系列冰水型29kW/43kW為例,除了內(nèi)置雙電源供應器,大幅提升系統(tǒng)的電力可靠度與保護;可支持熱插入的電源供應器與風扇,大幅縮短維修所需時間;多段變速風扇設計,可依據(jù)實際工作負載調(diào)整轉(zhuǎn)速,減少離峰期間的電力損耗之外,也將模塊化概念運用在冷卻裝置上,機柜式精密空調(diào)系列冰水型29kW/43kW可隨需求增加冷卻裝置,并將信號集中管理。
案例研究:中密度和高密度區(qū)共存于數(shù)據(jù)中心
根據(jù)AFCOM的數(shù)據(jù)中心密度分類,數(shù)據(jù)中心經(jīng)理人協(xié)會認為,每個機柜在4kW以下,中密度為5kW-8kW,高密度為9kW-15kW,超高密度為16kW以上。不同的數(shù)據(jù)中心可能面臨不同的機柜功率密度挑戰(zhàn)。在一些數(shù)據(jù)中心,甚至可能會有不同密度的機柜組合,但使用相同的電源和冷卻系統(tǒng)設計概念。臺灣一家領先的IC設計公司計劃在其總部建立一個新的數(shù)據(jù)中心,因為他們需要整合現(xiàn)有的IT設備以及相關(guān)的網(wǎng)絡和操作環(huán)境。根據(jù)現(xiàn)場檢查,該企業(yè)數(shù)據(jù)中心擁有多達80個中密度和超高密度機柜,超高密度機柜達25kW。
臺達建議,當企業(yè)需要低密度和高密度/超高密度機柜設計滿足不同的應用需求時,應該將數(shù)據(jù)中心空間劃分為高密度機柜區(qū)域和超高密度機柜區(qū)域以優(yōu)化其設計。設施規(guī)劃不僅應包括整體電力和冷卻需求,還應包括部署IT系統(tǒng)的空間使用情況。冷卻解決方案的使用有多種選擇。例如,4kW以下的機柜可能只需要房間級精密空調(diào)進行有效的散熱,而將機柜式精密空調(diào)設備配置為更高密度的機柜(從9kW到15kW)則可以獲得最佳散熱效果。
在這種情況下,臺達采用模塊化設計理念為客戶規(guī)劃超高密度區(qū)域,并將所有超高密度機柜放置在一個區(qū)域內(nèi)。對于其高密度應用,客戶選擇臺達的RowCool95kW,在600mm寬的機柜內(nèi)具有業(yè)界最大的散熱能力。臺達還建議使用熱通道密封技術(shù)來防止冷熱空氣混合,并確保最佳的冷卻效率。
總結(jié)
科技發(fā)展日新月異,由第三平臺引領的技術(shù)轉(zhuǎn)型在未來還會持續(xù)發(fā)酵,新興的物聯(lián)網(wǎng)、人工智能、AR/VR,也融入云端、移動、社交媒體和巨量數(shù)據(jù)等技術(shù),對于企業(yè)而言,數(shù)據(jù)中心的挑戰(zhàn)日益艱巨,高密度的發(fā)展勢必將會持續(xù),而基礎設施也就成為企業(yè)推展創(chuàng)新應用服務的重要后盾。
對于數(shù)據(jù)中心管理人員而言,高密度數(shù)據(jù)中心的發(fā)展勢必將帶來更多維護與管理難題,在此同時數(shù)據(jù)中心的可用性也會受到挑戰(zhàn),還得同時降低成本,提高效率。運用模塊化的設計與相關(guān)的設施,包含空間模塊化、熱通道封閉技術(shù)、冰水型機柜式空調(diào)以及更高效的UPS系統(tǒng),將能為數(shù)據(jù)中心帶來高可靠度架構(gòu)以及更靈活的部署彈性。
標簽:
中國傳動網(wǎng)版權(quán)與免責聲明:凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。
本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。