Со години, приказната зацентар за податоципотрошувачката на енергија следеше предвидлив лак. Дигитализацијата, секако, растеше, но придобивките од ефикасноста од подобрите сервери, виртуелизацијата и консолидацијата на облакот ја задржаа вкупната потрошувачка на електрична енергија изненадувачки рамна. Глобалната побарувачка на енергија од центарот за податоци се движеше околу 1 процент од вкупната потрошувачка на електрична енергија - приближно 200 терават-часови годишно - за подобар дел од една деценија.
Таа ера завршува.
Конвергенцијата на генеративната вештачка интелигенција, ископувањето криптовалути, пресметките на работ и експоненцијалниот раст на поврзаните уреди ја скрши старата крива на ефикасност. Проценките на индустријата сега покажуваат дека побарувачката за енергија од центарот за податоци расте со годишни стапки што не се забележани од раните 2000-ти. Во некои региони - Ирска, Северна Вирџинија, Сингапур - центрите за податоци веќе сочинуваат 15 до 25 проценти од вкупната потрошувачка на електрична енергија, принудувајќи ги регулаторите да воведат мораториуми за новите градби.
Наспроти оваа позадина, инфраструктурните избори кои некогаш изгледаа како технички детали - архитектура на ладење, топологија на дистрибуција на електрична енергија, планирање на густината на решетката - станаа одлуки во салата за одбори. Цената на енергијата повеќе не е ставка. Тоа е ограничување на растот.
Ефективноста на користење на енергија, или PUE, е стандардна метрика за ефикасност на индустријата за центри за податоци речиси две децении. Тоа е едноставен однос: вкупната моќност на објектот поделена со моќноста на ИТ опремата.
PUE од 2.0 значи дека за секој вати напојување на сервери и складирање, уште еден вати оди на ладење, осветлување, загуби од конверзија на енергија и други трошоци. PUE од 1,2 значи дека надземните трошоци трошат само 0,2 вати по IT вати.
Индустријата има широко прифатено нивоа засновани на PUE:
| Ниво | PUE | DCiE | Што значи тоа |
|---|---|---|---|
| Платина | <1,25 | >0,80 | Ефикасноста од светска класа, обично бара бесплатно ладење или течно ладење |
| Злато | 1,25 – 1,43 | 0,70 – 0,80 | Многу ефикасен, остварлив со модерни дизајни во умерени клими |
| Сребрена | 1,43 – 1,67 | 0,60 – 0,70 | Прифатливо за постари објекти или потопли клими |
| Бронза | 1.67 – 2.00 часот | 0,50 – 0,60 | Типично за наследни центри за податоци без поголеми доградби |
| Фер | 2.00 – 2.50 часот | 0,40 – 0,50 | Слаба ефикасност, високи оперативни трошоци |
| Сиромашните | >2,50 | <0,40 | Критична неефикасност, најверојатно бара итно внимание |
Проблемот е што многу организации всушност не ја знаат својата PUE. Тие проценуваат. Тие погодуваат. Или мерат само на главното комунално броило и го преземаат остатокот.
Истражувањето на индустријата од 2023 година покажа дека скоро 40 проценти од операторите на центрите за податоци никогаш не измериле PUE на ниво на решетката. Помеѓу оние што го направија, распространетоста помеѓу пријавениот и вистинскиот PUE беше во просек 0,3 поени - доволно за да се премести објектот од злато во сребрен без никој да забележи.
Разбирањето зошто PUE толку многу варира започнува со разгледување каде напојувањето го напушта центарот за податоци.
Во типична постројка со воздушно ладење со PUE околу 1,8, дефектот изгледа приближно вака:
Оптоварувањето на ладењето е најголемата променлива. Објект во умерена клима што користи надворешен воздух за бесплатно ладење може да потроши само 15 проценти од својата не-ИТ моќ на ладење. Истиот објект во тропска клима со механичко ладење во текот на целата година може да потроши 40 проценти.
Ова е причината зошто давателите на колокација рекламираат PUE на ниво на објект, но испорачуваат PUE на мерачот на клиентите - различни бројки, различни импликации. Клиентот плаќа за сето тоа.
Традиционалното управување со центарот за податоци претпоставуваше релативно статична средина. Рафтовите се полнеле со месеци или години. Ладењето може бавно да се прилагоди. Дистрибуцијата на електрична енергија беше преголема од првиот ден.
Ерата на облаците ги смени претпоставките. Рафтовите сега се пополнуваат со денови. Работните оптоварувања автоматски се префрлаат низ серверите. Кластерите со вештачка интелигенција со висока густина може да извлечат три пати поголема моќност од соседните компјутерски полици за општа намена.
Овие промени принудија да се преиспита управувањето со инфраструктурата. Се издвојуваат три тренда.
Прво, густината се зголемува нерамномерно.Стандардна решетка за сервери пред една деценија влечеше 5-8 киловати. Денес, лавиците за општа намена црпат 10-15 киловати. Рамките за обука за компјутери и вештачка интелигенција со високи перформанси рутински надминуваат 30 киловати по решетка. Некои надминуваат 50 киловати.
Ова создава предизвици за управување со топлинска енергија што ладењето на воздухот се бори да ги реши. Со 20 киловати по багажник, воздушното ладење останува ефективно со соодветно задржување. На 30 киловати станува маргинален. На 40 киловати и погоре, течното ладење се движи од опционално до неопходно.
Второ, планирањето на капацитетите стана предвидливо.Стариот метод - купете повеќе капацитет отколку што е потребно и оставете го да седи без работа - повеќе не работи во обем. Капацитетот во мирување има и капитални трошоци и трошоци за тековно одржување.
Современите системи за управување со инфраструктурата користат историски податоци и предвидување на обемот на работа за да предвидат кога ќе истече струјата, ладењето или просторот на решетката. Најдобрите системи може да препорачаат дали да се реконфигурира постоечкиот капацитет или да се нарача нов хардвер, денови или недели пред ограничувањето да стане критично.
Трето, барањата за видливост имаат прпоплочени.Традиционалниот центар за податоци може да ја следи моќноста на ниво на PDU. На модерен објект му е потребна видливост на ниво на решетката, понекогаш на ниво на сервер, а сè повеќе на ниво на оптоварување - знаејќи која виртуелна машина или контејнер ја придвижува енергијата.
Инфраструктура на центарот за податоциСофтверот за управување (DCIM) постои повеќе од една деценија, но усвојувањето останува нерамномерно. Помалку од половина од центрите за податоци на претпријатијата имаат распоредено целосен систем DCIM. Многу од нив користеа само мал дел од неговите способности.
Правилно имплементиран DCIM систем прави четири работи:
Управување со средства.Секој сервер, прекинувач, PDU и единица за ладење се следат во базата на податоци за управување со конфигурации (CMDB). Локација, рејтинг на енергија, мрежни врски, историја на одржување - сето тоа. Ова звучи основно, но многу организации сè уште ги следат средствата во табеларни пресметки што поминуваат со месеци помеѓу ажурирањата.
Следење во реално време.Напојување на PDU или ниво на решетката, температура и влажност на точките за напојување и враќање, статус на системот за ладење, здравје на батеријата на UPS-от. Алармите се активираат кога параметрите отстапуваат од зададените точки. Целта е да се откријат проблемите пред да предизвикаат застој.
Планирање на капацитети.Системот знае колку моќност и капацитет за ладење има на располагање, колку се користи и колку е резервирано за идното распоредување. Може да го моделира влијанието на додавањето нов решетката со висока густина или пензионирањето на сет на постари сервери.
Визуелизација.Дигитален близнак на центарот за податоци - решетка по решетка, плочка по плочка - ги прикажува моменталните услови и им овозможува на операторите да симулираат промени. Додавање 10 киловати оптоварување на редот три, колона четири: дали тоа го надминува капацитетот за ладење? Системот одговара пред некој да премести опрема.
Намалувањето на потрошувачката на енергија во центарот за податоци не е мистериозно. Методите се добро разбрани. Предизвикот е дисциплина за спроведување.
Зголемете ја температурата на доводниот воздух.Повеќето центри за податоци работат на ладно - 18 до 20 степени Целзиусови при враќање на единицата за ладење - затоа што тоа е она што операторите отсекогаш го правеле. Насоките на ASHRAE сега препорачуваат 24 до 27 степени. Секој степен зголемување ја намалува енергијата за ладење за приближно 4 проценти. Работењето на 26 степени наместо на 20 степени заштедува 20-25 проценти од моќта за ладење.
Елиминирајте го мешањето на топол и ладен воздух.Затворање со топла патека, затворање на ладен пат или вертикални издувни канали го принудуваат воздухот за ладење да оди таму каде што е потребно, наместо краткотрајно да се движи низ предниот дел на решетките. Самото задржување обично ја намалува енергијата за ладење за 15-25 проценти.
Користете погони со променлива брзина.Вентилаторите и пумпите со постојана брзина трошат енергија при делумно оптоварување. Погоните со променлива брзина одговараат на протокот на воздух и вода со реалната побарувачка. Периодите на поврат на ретрофит се обично 1-3 години.
Оптимизирајте ја работата на UPS-от.Повеќето системи на UPS-от работат во режим на двојна конверзија постојано - конвертирање на наизменична струја во еднонасочна струја и назад во наизменична струја дури и кога електричната енергија е чиста. Современите UPS-системи можат да се префрлат на еколошки режим кога квалитетот на електричната енергија дозволува, постигнувајќи 99 проценти ефикасност наместо 94-96 проценти. Размената е кратко време за пренос на батеријата доколку прекине напојувањето со електричната енергија. За ИТ оптоварувања со напојувања дизајнирани за такви преноси, ризикот е минимален.
Прифатете ја дистрибуцијата со повисок напон.Дистрибуцијата на моќност на 415V наместо 208V ги намалува загубите во дистрибуцијата за приближно 25 проценти. Ова бара компатибилни PDU и напојувања на серверот, но многу современи уреди го поддржуваат тоа.
Компанијата Shangyu CPSY, високотехнолошка компанија со фокус на инфраструктурата на центрите за податоци, известува PUE од 1,3 за своите решенија за модуларни центри за податоци. Ова ја става компанијата во златното ниво, движејќи се кон платина.
Тврдената заштеда на енергија од 25 проценти во споредба со конвенционалните дизајни доаѓа од повеќе фактори. Модуларните UPS системи со 97,4 проценти ефикасност на системско ниво ги намалуваат загубите во дистрибуцијата кои инаку работат 15-20 проценти. Прецизните климатизери со компресори со променлива брзина и EC вентилатори го приспособуваат излезот на ладење за да одговара на вистинското топлинско оптоварување наместо да работи со фиксен капацитет. И физичкиот распоред - затворање на жешките патеки, оптимално растојание на решетките, подигнат под со перфорирани плочки со соодветна големина - се однесува на управувањето со протокот на воздух што поткопува многу инаку ефикасни објекти.
Портфолиото за сертификација на компанијата вклучува ISO 9001 (управување со квалитет) и ISO 27001 (управување со безбедноста на информациите). Неговите имплементации на клиенти вклучуваат партнерства со Huawei, ZTE и Inspur, со извозни инсталации во САД, Обединетото Кралство, Германија, Франција и Австралија.
Со години, течното ладење беше ниша технологија за суперкомпјутерски центри. Тоа брзо се менува.
Кластерите за обука за вештачка интелигенција кои користат NVIDIA H100 или претстојни графички процесори B200 генерираат 30-50 киловати по решетката во конфигурации со чисто воздушно ладење. При овие густини, воздушното ладење бара високи стапки на проток на воздух - гласни вентилатори, длабоки лавици и сепак маргинална термичка контрола.
Течното ладење директно до чипот отстранува 60-80 проценти од топлината на изворот. Чиповите работат поладно. Навивачите трчаат побавно. Собниот клима уред се справува само со преостанатата топлина од напојувањето, меморијата и другите компоненти.
Добивката на ефикасност е значителна. Објектите со директно ладење на чипот известуваат за вредностите на PUE од 1,1 до 1,2. Замените се повисоките капитални трошоци, покомплексното управување со истекувањето и потребата за третман на вода според капацитетот.
Целосното ладење со потопување - потопување на цели сервери во диелектрична течност - го турка PUE под 1,1, но останува специјализиран. Повеќето комерцијални центри за податоци прво ќе прифатат ладење директно на чип, а подоцна ќе се потопуваат за специфични зони со висока густина.
Платформата на центарот за податоци SHANGYU вклучува одредби и за архитектурата за воздушно и течно ладење, признавајќи дека идните распоредувања со висока густина ќе бараат термичко управување базирано на течност, без оглед на дизајнот на објектот.
Повеќето оперативни тимови на центри за податоци сè уште работат реактивно. Се огласува аларм. Некој истражува. Се применува поправка. Циклусот се повторува.
Транзицијата кон предвидливо управување бара три способности што им недостигаат на многу организации.
Целосни податоци за конфигурација.Да се знае што има во центарот за податоци - секој сервер, секој прекинувач, секој PDU, секоја единица за ладење - е основата. Без точни податоци за CMDB, планирањето на капацитетот е претпоставка.
Грануларна телеметрија.Мерењето на моќноста на ниво на решетката е минимално. Мерењето на моќноста по сервер е подобро. Припишувањето моќ на ниво на обем на работа е најдобро, но најтешко да се постигне.
Анализа што го разликува сигналот од шумот.Зголемувањето на температурата на една решетка може да значи неуспешен вентилатор. Зголемувањето на температурата на половина од центарот за податоци може да значи дефект на чилерот. Системот треба да разликува и соодветно да препорача одговори.
Платформата DCIM од SHANGYU обезбедува поддршка за уредите SNMP и Modbus, интерфејси за апликации базирани на веб и Windows и интеграција со мрежни камери за слики предизвикани од настани. Наведените цели се јасни: намалување на скапото време на застој, намалување на дневните оперативни трошоци преку целосна контрола на животната средина и подобрување на видливоста и следливоста на управувањето.
Потрошувачката на енергија во центарот за податоци претставува приближно 1 процент од глобалната побарувачка за електрична енергија. Таа бројка звучи мала додека не се стави во контекст. Тоа е приближно еквивалентно на вкупната потрошувачка на електрична енергија во Обединетото Кралство.
Што е уште поважно, стапката на раст се забрзува. Проекциите на индустријата покажуваат дека побарувачката за енергија од центарот за податоци се зголемува за 10-15 проценти годишно до 2030 година, поттикната од вештачката интелигенција, усвојувањето на облакот и континуираното проширување на поврзаните уреди. Со таа стапка, центрите за податоци би трошеле 3-4 отсто од глобалната електрична енергија до крајот на деценијата.
Добивките во ефикасноста што ја одржуваа потрошувачката на енергија рамна во претходната деценија дојде од виртуелизација на серверот (намалување на бројот на физички сервери), подобрена ефикасност на погонот (преместување од дискови што се вртат на SSD-дискови) и широко распоредување на слободното ладење (користење надворешен воздух наместо механичко ладење). Оние ниско обесени плодови во голема мера се набрани.
Следниот бран на ефикасност ќе дојде од течно ладење, дистрибуција со повисок напон, контроли за ладење оптимизирани со вештачка интелигенција и - можеби најважно - подобро усогласување помеѓу капацитетот на инфраструктурата и вистинското оптоварување на ИТ. Тоа последно парче бара вид на видливост во реално време и предвидлива аналитика што DCIM системите ги обезбедуваат, но малку објекти целосно ги користат.
Дали го знаете вашиот вистински PUE, а не бројот на листот со спецификации?Ако не сте измериле на излезот на UPS-от и на влезот на ИТ опремата, не знаете. Разликата е вашата вистинска режија.
Дали вашите системи за ладење се борат едни со други?Во многу центри за податоци, единиците CRAC се поставени со преклопувачки опсези на температура и влажност. Една единица се одвлажнува додека друга се навлажнува. Еден се лади додека друг се загрева. Ова не е невообичаено. Исто така не е ефикасен.
Која е потрошувачката на енергија во мирување на вашите сервери?Податоците од индустријата покажуваат дека типичните сервери на претпријатијата црпат 30-40 проценти од нивната максимална моќност кога не прават ништо. Исклучувањето или заспивањето на неискористените сервери е достапна мерка за ефикасност со највисок рентабилност. Тоа е и најзанемарено.
Дали би можеле да ја зголемите температурата на доводниот воздух за два степени без да ги прекршите спецификациите на опремата?Најверојатно да. Повеќето опрема е оценета за температури на внесување од 25-27 степени. Повеќето центри за податоци работат на 20-22 степени. Тој јаз од шест степени претставува години на непотребна енергија за ладење.
Кога последен пат сте ја потврдиле ефикасноста на вашиот UPS-от?Ефикасноста на ознаката се мери при целосно оптоварување со совршен фактор на моќност. Ефикасноста во реалниот свет при делумно оптоварување со реалниот фактор на моќност може да биде 5-10 поени помала.