Dátové centrum

z Wikipédie, slobodnej encyklopédie

Dátové centrum je budova alebo skupina budov, slúžiaca na uloženie počítačových systémov a ich komponentov na telekomunikačné účely alebo ako úložné systémy. Keďže IT operácie sú dôležité pre podnikanie a mnoho ďalších odvetví, zahŕňajú redundantné alebo záložné komponenty a infraštruktúru pre napájanie, komunikačné pripojenia a rôzne ďalšie zariadenia.

História[upraviť | upraviť zdroj]

Počítačová miestnosť NASA pre kontrolu misie z r.1962

História dátových centier sa začala písať v obrovských počítačových miestnostiach v 40. rokoch 20. storočia[1]. Ako vzor môžeme použiť ENIAC - príklad prvého dátového centra. Prvé počítačové systémy boli zložité na prevádzku a údržbu, vyžadovali si špeciálne prostredie a pod. Na pripojenie všetkých komponentov bolo potrebných veľa káblov. Aby v tom bol poriadok, boli navrhnuté metódy na správne umiestnenie a usporiadanie káblov, ako napríklad stojany na montáž, vyvýšené podlahy a káblové žľaby. Sálový počítač vyžadoval veľa energie a musel byť neustále chladený, aby nedošlo k prehriatiu. Bezpečnosť sa vtedy stala dôležitou vlastnosťou – počítače boli drahé a často sa používali na vojenské účely. Preto boli navrhnuté základné pokyny na kontrolu prístupu do počítačovej miestnosti.

Počas rozmachu mikropočítačového priemyslu, najmä počas 80. rokov, sa počítače začali používať všade. V mnohých prípadoch ich používali s minimálnym alebo žiadnym ohľadom na ich prevádzkové požiadavky. Keď však začali byť IT operácie zložitejšie, organizácie si začali uvedomovať potrebu kontrolovania informačných technológií. Dostupnosť lacného sieťového vybavenia a nových štandardov pre sieťovú štruktúru im umožnila používať hierarchický dizajn. Vďaka nemu sa mohli servery umiestniť do špecifickej miestnosti v rámci spoločnosti. Používanie termínu „dátové centrum“ si v tomto období začalo získavať svoju popularitu.

Najväčší rozmach dátových centier nastal počas "dot-com" bubliny [2] v rokoch 1997–2000. Spoločnosti potrebovali rýchle internetové pripojenie a nepretržitú prevádzku svojich systémov. Inštalácia takéhoto vybavenia nebola pre mnohé menšie spoločnosti výhodná. Mnoho spoločností začalo stavať veľmi veľké zariadenia, nazývané internetové dátové centrá (IDC)[3], ktoré začali poskytovať aj rozšírené možnosti využitia, ako je crossover zálohovanie: „Ak sa preruší linka Bell Atlantic, môžeme ju preniesť do..., aby sme minimalizovali čas výpadku.“

Začal sa používať termín "cloudové dátové centrá" (CDC)[4]. Budovanie a údržba dátových centier je finančne náročná. Čím ďalej, tým viac sa vytráca rozdelenie týchto pojmov a spája sa do jedného pojmu: „dátové centrum“.[5]

Požiadavky moderného dátového centra[upraviť | upraviť zdroj]

Racky telekomunikačných zariadení v datacentre

Modernizácia a transformácia dátových centier zvyšuje ich výkon a energetickú efektívnosť. Problémom je čím ďalej, tým viac informačná bezpečnosť, a preto sa musí dátové centrum nachádzať v bezpečnom prostredí, kde je minimálne riziko narušenia bezpečnosti. Dátové centrum aj preto musí dodržiavať vysoké štandardy zabezpečenia integrity a funkčnosti svojho počítačového prostredia.

International Data Corporation (IDC) odhaduje priemerný vek dátového centra na deväť rokov. Ďalšia výskumná spoločnosť Gartner tvrdí, že dátové centrá staršie ako sedem rokov sú už zastarané. Nárast veľkosti dát[6] (odhaduje sa na 163 zettabajtov do roku 2025[7]) je jedným z faktorov, ktoré vyvolávajú potrebu modernizácie dátových centier.

Zameranie sa na modernizáciu nie je nič nové: obavy zo zastaraného vybavenia boli kritizované už v roku 2007[8]. V roku 2011 mal inštitút Uptime obavy z veku vybavenia dátových centier. Do roku 2018 sa obavy presunuli na vek zamestnancov: „Personál dátového centra starne rýchlejšie ako vybavenie."[9]

Transformácia dátového centra[upraviť | upraviť zdroj]

Transformácia prebieha krok za krokom prostredníctvom integrovaných projektov realizovaných v priebehu funkčného času. To sa líši od tradičnej metódy vylepšovania dátových centier, ktorá využíva sériový a tichý prístup.[10] Typické projekty v rámci iniciatívy transformácie dátového centra zahŕňajú štandardizáciu, virtualizáciu, automatizáciu a bezpečnosť.

  • Štandardizácia: Zníženie počtu dátových centier a zabránenie rozrastaniu serverov[11][12] (fyzických aj virtuálnych), často zahŕňa výmenu starnúceho vybavenia dátových centier[13]
  • Virtualizácia: Znižuje prevádzkové náklady a znižuje spotrebu energie[14], virtualizované počítače a servery môžu byť umiestnené v dátových centrách a prenajímané na základe predplatného.[15] Investičná banka Lazard Capital Markets v roku 2008 odhadla, že do roku 2012 bude virtualizovaných 48 percent podnikových operácií. Gartner považuje virtualizáciu za katalyzátor modernizácie.[16]
  • Automatizácia: Automatizácia úloh, ako je poskytovanie, konfigurácia, záplata, správa vydaní a dodržiavanie predpisov, je potrebná neustále.
  • Zabezpečenie: Ochrana virtuálnych systémov je spojená s existujúcou bezpečnosťou fyzických infraštruktúr.[17]

Vyvýšená podlaha[upraviť | upraviť zdroj]

Perforovaná chladiaca podlaha

V dnešnej dobe sa preferuje v datacentrách chladenie vedúce popod podlahu. Štandardy pre vyýšenú podlahu - GR-2930 - vyvinula spoločnosť Telcordia Technologies, dcérska spoločnosť Ericsson. Hoci prvú počítačovú miestnosť s vyvýšenou podlahou vyrobila spoločnosť IBM v roku 1956[18] a „existuje už od 60. rokov“[19], práve v 70. rokoch minulého storočia bolo pre dátové centrá bežnejšie, aby umožnili prúdenie chladného vzduchu cirkulovať efektívnejšie. Prvým účelom vyvýšenej podlahy bolo umožniť prístup k rozvodom.[20][21]

"Lights out"[upraviť | upraviť zdroj]

Známe aj ako tmavé dátové centrum, je dátové centrum[22], ktoré úplne eliminuje potrebu priameho prístupu personálu, s výnimkou mimoriadnych okolností. Vzhľadom na to, že do dátového centra nie je potrebný vstup personálu, môže byť prevádzkované bez osvetlenia. Všetky zariadenia sú prístupné a spravované vzdialenými systémami s automatizačnými programami. Okrem úspory energie, zníženia nákladov na zamestnancov a možnosti umiestniť lokalitu ďalej od populačných centier, vytvorenie "Lights out" dátového centra znižuje hrozbu škodlivých útokov z vonku.[23][24]

Dizajn dátových centier[upraviť | upraviť zdroj]

Typický rack, ktorý je bežne prenajateľný

Oblasť dizajnu dátových centier rastie už desaťročia rôznymi smermi, vrátane novej výstavby veľkých a malých budov, spolu s kreatívnym opätovným využitím existujúcich zariadení, ako sú opustené obchodné priestory, staré soľné bane a bunkre z vojnového obdobia. Miestne stavebné predpisy môžu upravovať minimálne výšky stropov a ďalšie parametre dátových centier. Niektoré parametre pri navrhovaní dátových centier sú:

  • Veľkosť - jedna miestnosť budovy, jedno alebo viac poschodí alebo celá budova,
  • Kapacita – pojme až 1 000 serverov alebo viac[25]
  • Ďalšie zváženia - priestor, napájanie, chladenie, náklady na prevádzku[26]
  • Úprava vzduchu - vykurovanie, vetranie a klimatizácia, zariadenia na zvlhčovanie a odvlhčovanie, natlakovanie[27]
  • Návrh elektrotechnickej infraštruktúry - plánovanie inžinierskych sietí, distribúcia, spínanie a bypass zo zdrojov energie, systémy neprerušiteľného napájania (UPS) a ďalšie[28][29]
CRAC Vzdušné chladenie

Kritéria dizajnu a kompromisy dizajnu[upraviť | upraviť zdroj]

  • Očakávania dostupnosti: Náklady na predchádzanie výpadkom by nemali presiahnuť straty samotného výpadku
  • Výber lokality: Faktory lokality zahŕňajú blízkosť rozvodných sietí, telekomunikačnú infraštruktúru, sieťové služby, dopravné linky a pohotovostné služby.

Ďalšie úvahy by mali zahŕňať letové trasy, susedné energetické kanály, geologické riziká a podnebie (spojené s nákladmi na chladenie). Často je najťažšie zmeniť dostupnosť energie.

Vysoká dostupnosť[upraviť | upraviť zdroj]

Existujú rôzne metriky na meranie dostupnosti údajov, ktorá je výsledkom dostupnosti dátového centra nad 95% doby prevádzkyschopnosti, pričom horná časť škály počíta, koľko „deviatok“ možno umiestniť za „99%“.[30]

Modularita a flexibilita[upraviť | upraviť zdroj]

Modularita a flexibilita sú kľúčovými prvkami, ktoré umožňujú, aby sa dátové centrum časom rozrastalo a menilo. Moduly dátových centier sú vopred pripravené, štandardizované stavebné bloky, ktoré možno ľahko konfigurovať a presúvať podľa potreby. Modulárne dátové centrum môže pozostávať zo zariadenia dátového centra umiestneného v prepravných kontajneroch[31] alebo podobných prenosných kontajneroch. Komponenty dátového centra môžu byť prefabrikované a štandardizované, čo uľahčuje ich presun v prípade potreby.[32]

Prostredie[upraviť | upraviť zdroj]

Teplota a vlhkosť sa ovládajú pomocou:

  • Klimatizácie
  • Nepriameho chladenia, ako je použitie vonkajšieho vzduchu[33][34], jednotky nepriameho odparovania (IDEC) alebo aj použitie morskej vody.

Je dôležité, aby sa počítače nenavlhčili ani neprehrievali, pretože vysoká vlhkosť môže viesť k zaneseniu ventilátorov prachom, čo vedie k prehriatiu, alebo môže spôsobiť poruchu komponentov, zničiť dosku a spôsobiť požiar. Prehriatie môže spôsobiť roztavenie komponentov, zvyčajne kremíka alebo medi vodičov alebo obvodov, čo spôsobí uvoľnenie spojov a riziko požiaru.

Elektrická energia[upraviť | upraviť zdroj]

Batériová banka vo veľkom datacentre, používaná na napájanie pokiaľ sa naštartujú dieselové generátory

"Batériová banka" sa skladá z jedného alebo viacerých zdrojov, ktoré sa používajú na napájanie, kým sa nespustia dieselové generátory[35]. Aby sa predišlo jednotlivým bodom zlyhania, všetky prvky elektrických systémov, vrátane záložných systémov, dostávajú zvyčajne redundantné kópie a kritické servery sú pripojené k napájacím zdrojom „na strane A“ aj „na strane B“. Toto usporiadanie sa často robí na dosiahnutie systémovej redundancie N+1. Statické prepínače sa niekedy používajú na zabezpečenie okamžitého prepnutia z jedného zdroja na druhý v prípade výpadku napájania.

Nízkonapäťové káble[upraviť | upraviť zdroj]

Zahŕňajú:

  • Kabeláž na vyvýšenej podlahe, a to z bezpečnostných dôvodov aby sa predišlo dodatočným nákladom na chladiace systémy nad stojanmi
  • Menšie/lacnejšie dátové centrá môžu namiesto toho použiť antistatické dlaždice ako podlahovú plochu

Prúdenie vzduchu[upraviť | upraviť zdroj]

Riadenie prúdenia vzduchu rieši potrebu zlepšiť efektivitu chladenia datacentra tým, že zabraňuje recirkulácii horúceho vzduchu odsávaného z IT zariadení a znižuje obtokové prúdenie vzduchu.

Typická "studená ulička", racky so servermi sú si navzájom oproti a studený vzduch sa distribuuje cez vyvýšenú podlahu

Existuje niekoľko metód oddeľovania prúdov horúceho a studeného vzduchu, ako napríklad uzavretie horúcej/studenej uličky a radové chladiace jednotky.[37]

Obmedzenia uličky[upraviť | upraviť zdroj]

Obmedzenie studenej uličky sa vykonáva odkrytím zadnej časti stojanov na vybavenie, zatiaľ čo predné strany serverov sú uzavreté dverami a krytmi. Je to podobné, ako veľké potravinárske spoločnosti chladia a skladujú svoje produkty. Počítačové skrine sú často organizované na uzavretie horúcich/studených uličiek. Správne umiestnenie vzduchového potrubia zabraňuje miešaniu studeného a horúceho vzduchu.[38] Rad rackov je spárovaný tak, aby smeroval k sebe, aby prívody a výfuky[39] studeného a horúceho vzduchu nemiešali vzduch, čo by výrazne znížilo účinnosť chladenia. Alternatívne môže rad podlahových panelov vytvoriť efektívne cesty studeného vzduchu smerujúce k vetracím dlaždiciam na zvýšenej podlahe. Ďalšou možnosťou je osadenie skríň s vertikálnymi výfukovými kanálmi - "komínom". Horúce výfukové potrubia/prieduchy môžu smerovať vzduch do priestoru nad zníženým stropom a späť do chladiacich jednotiek alebo do vonkajších prieduchov. Pri tejto konfigurácii nie je potrebná tradičná konfigurácia teplej/studenej uličky.[40]

Ochrana pred požiarmi[upraviť | upraviť zdroj]

Haisace prístroje FM200

Dátové centrá sú vybavené pasívnymi a aktívnymi prvkami protipožiarnej ochrany, ako aj implementovaným programom požiarnej prevencie. Dymové hlásiče sa zvyčajne inštalujú na včasné varovanie pred požiarom v jeho počiatočnom štádiu. Hoci hlavná miestnosť zvyčajne nedovoľuje systémy na báze mokrého potrubia kvôli krehkej povahe dosiek plošných spojov, stále existujú systémy, ktoré možno použiť vo zvyšku zariadenia alebo v systémoch cirkulácie vzduchu v studenej/horúcej uličke, ktoré sú uzavretými systémami.

Používajú sa napríklad:[41]

  • Zahmlievacie systémy, ktoré pomocou vysokého tlaku vytvoria malé kvapky vody, ktoré je možné použiť v citlivých miestnostiach vďaka povahe kvapiek.

Existujú však aj iné prostriedky na hasenie požiarov, najmä v citlivých oblastiach, zvyčajne pomocou plynového hasenia požiaru, z ktorých bol najpopulárnejší halónový plyn, kým sa nezistili jeho negatívne účinky.

Bezpečnosť[upraviť | upraviť zdroj]

Fyzický prístup do datacentra je obmedzený. Vrstvená bezpečnosť často začína oplotením, pätníkmi a pascami.[42] Ak je dátové centrum veľké alebo obsahuje citlivé informácie, je takmer vždy prítomný kamerový systém a stála bezpečnostná stráž. Zariadenia na rozpoznávanie odtlačkov prstov začínajú byť samozrejmosťou. Prístup k protokolovaniu vyžadujú niektoré nariadenia o ochrane údajov; niektoré organizácie to úzko spájajú so systémami kontroly prístupu. Pri hlavnom vchode, vchodoch do vnútorných miestností a pri skriniach vybavenia sa môžu vyskytnúť viaceré záznamy. Riadenie prístupu do skríň môže byť integrované s inteligentnými jednotkami na rozvod energie, takže zámky sú prepojené cez to isté zariadenie.

Spotreba elektrickej energie[upraviť | upraviť zdroj]

Datacentrum Google v Dallase, Oregon

Spotreba energie je jedným z hlavných problémov dátových centier. Príkon sa pohybuje od niekoľkých kW až po niekoľko desiatok MW. Niektoré zariadenia potrebujú viac energie ako 100-krát vyššia typická kancelárska budova.[43] V prípade zariadení s vyššou hustotou výkonu sú náklady na elektrinu dominantným prevádzkovým nákladom a predstavujú viac ako 10% celkových nákladov na vlastníctvo (TCO) dátového centra.[44]

Emisie skleníkových plynov[upraviť | upraviť zdroj]

V roku 2020 dátové centrá (okrem ťažby kryptomien) a prenos dát spotrebovali približne 1% svetovej elektriny.[45] Hoci časť tejto elektriny bola nízkouhlíková, IEA vyzvala na väčšie „úsilie vlád a priemyslov v oblasti energetickej účinnosti a obstarávania obnoviteľných zdrojov energie, keďže niektoré dátové centrá stále využívajú elektrinu vyrobenú z fosílnych palív.[46] Uviedli tiež, že by sa mali brať do úvahy emisie počas životného cyklu, to znamená vrátane „stelesnených“ emisií, ako napríklad v budovách. Odhaduje sa, že dátové centrá boli zodpovedné za 0,5% emisií skleníkových plynov v USA v roku 2018.[47] Niektoré čínske spoločnosti, ako napríklad Tencent, sa zaviazali, že budú do roku 2030 uhlíkovo neutrálne, zatiaľ čo iné ako Alibaba kritizovali Greenpeace za to, že sa nezaviazali stať uhlíkovo neutrálnymi.[48]

Energetická účinnosť a réžia[upraviť | upraviť zdroj]

Najbežnejšie používanou metrikou energetickej účinnosti dátového centra je účinnosť využitia energie, vypočítaná ako pomer celkového výkonu vstupujúceho do dátového centra vydelený spotrebou energie IT zariadením. Priemerné dátové centrum v USA má PUE 2,0[49], čo znamená dva watty celkového výkonu na každý watt dodaný do IT zariadenia. Stav techniky sa odhaduje na približne 1,2[50]. Google zverejňuje štvrťročnú efektivitu zprevádzkovaných dátových centier.[51] Americká agentúra na ochranu životného prostredia má hodnotenie Energy Star pre samostatné alebo veľké dátové centrá.[52] Na to, aby sa dátové centrum kvalifikovalo na udelenie environmentálnej značky, musí byť v hornom kvartile energetickej účinnosti všetkých ohlásených zariadení. Európska únia má iniciatívu: Kódex správania EÚ pre dátové centrá - má zabezpečiť to, aby boli dátové centrá efektívnejšie a viac "eko".[53]

Analýza a projekty spotreby energie[upraviť | upraviť zdroj]

Merania a analýzy spotreby energie presahujú rámec toho, čo využívajú IT zariadenia.[54] Energiu spotrebúva aj hardvér na podporu zariadení, ako sú chladiče a ventilátory. V roku 2011 boli serverové stojany v dátových centrách navrhnuté na viac ako 25 kW a odhadovalo sa, že typický server premrhá asi 30% elektriny, ktorú spotreboval. Rastie aj energetická náročnosť systémov na ukladanie informácií. Odhaduje sa, že dátové centrum s vysokou dostupnosťou majú spotrebu aj 1 megawatt (MW) a spotrebujú počas svojej životnosti elektrinu v hodnote 20 000 000 USD, pričom chladenie predstavuje 35% až 45% celkových nákladov na vlastníctvo dátového centra. Výpočty ukázali, že za dva roky by sa náklady na napájanie a chladenie servera mohli rovnať nákladom na nákup hardvéru servera.[55] Výskum z roku 2018 ukázal, že značné množstvo energie by sa ešte dalo ušetriť optimalizáciou obnovovacích frekvencií IT a zvýšením využitia serverov.[56] V roku 2011 Facebook, Rackspace a iní, založili Open Compute Project (OCP) s cieľom vyvinúť a zverejniť otvorené štandardy pre ekologickejšie výpočtové technológie dátových centier. V rámci projektu, Facebook zverejnil návrhy svojho servera, ktorý postavil pre svoje prvé vyhradené dátové centrum v Prineville. Vyššie servery ponechali priestor pre efektívnejšie chladiče a umožnili použitie ventilátorov, ktoré pohybovali viac vzduchu s menšou energiou. Nekupovaním komerčných serverov sa ušetrila aj spotreba energie v dôsledku zbytočných rozširujúcich slotov na základnej doske a nepotrebných komponentov, ako je grafická karta.[57] V roku 2016 sa k projektu pripojila spoločnosť Google a zverejnila návrhy svojho 48V DC plytkého dátového centra. Tento dizajn bol už dlho súčasťou dátových centier Google. Odstránením viacerých transformátorov, ktoré sa zvyčajne nasadzujú v dátových centrách, spoločnosť Google dosiahla 30% zvýšenie energetickej účinnosti.[58] V roku 2017 tržby za hardvér dátových centier postavených podľa návrhov OCP presiahli 1,2 miliardy USD a očakávalo sa, že do roku 2021 by dosiahli 6 miliárd USD.[57]

Analýza napájania a chladenia[upraviť | upraviť zdroj]

Datacentrum v CERN-e (2010)

Napájanie predstavuje najväčšie náklady pre používateľa dátového centra. Ochladzovaním nad 21 °C sa plytvá peniazmi a energiou. Okrem toho, prechladzovanie zariadení v prostrediach s vysokou relatívnou vlhkosťou môže vystaviť zariadenie veľkému množstvu vlhkosti, čo uľahčuje rast usadenín soli na vodivých vláknach v obvodoch. Analýza napájania a chladenia, tiež označovaná ako tepelné hodnotenie, meria relatívne teploty v špecifických oblastiach, ako aj kapacitu chladiacich systémov zvládnuť špecifické teploty okolia.[59] Analýza napájania a chladenia môže pomôcť identifikovať horúce miesta, prechladené oblasti, ktoré dokážu zvládnuť väčšiu hustotu spotreby energie, bod prerušenia zaťaženia zariadenia, účinnosť stratégie zvýšenej podlahy a optimálne umiestnenie zariadenia (ako sú napríklad jednotky AC). Hustota chladenia výkonu je mierou toho, koľko štvorcových plôch dokáže centrum ochladiť pri maximálnej kapacite. Chladenie dátových centier je po serveroch druhým najväčším spotrebiteľom energie. Energia chladenia sa pohybuje od 10% celkovej spotreby energie v najefektívnejších dátových centrách a dosahuje až 45% v štandardných dátových centrách chladených vzduchom.

Analýza energetickej účinnosti[upraviť | upraviť zdroj]

Analýza energetickej účinnosti meria spotrebu energie IT a zariadení dátových centier. Typická analýza energetickej účinnosti meria faktory, ako je účinnosť využitia energie dátového centra (PUE) v porovnaní s priemyselnými štandardmi, identifikuje mechanické a elektrické zdroje neefektívnosti a identifikuje metriky riadenia vzduchu.[60] Obmedzením väčšiny súčasných metrík a prístupov je však to, že do analýzy nezahŕňajú IT. Prípadové štúdie ukázali, že holistickým riešením energetickej účinnosti v dátovom centre je možné dosiahnuť veľkú efektivitu, ktorá by inak nebola možná.[61]

Výpočtová analýza dynamiky kvapalín (CFD)[upraviť | upraviť zdroj]

Tento typ analýzy využíva sofistikované nástroje a techniky na objasnenie jedinečných tepelných podmienok prítomných v každom dátovom centre – predpovedanie teploty, prúdenia vzduchu a tlaku v dátovom centre na posúdenie výkonu a spotreby energie pomocou numerického modelovania.[62] Predpovedaním účinkov týchto podmienok prostredia možno analýzu CFD v dátovom centre použiť na predpovedanie vplyvu rackov vysokou hustotou zmiešaných s rackmi s nízkou hustotou[63] a následného vplyvu na chladiace zdroje, zlé postupy správy infraštruktúry a ďalšie.

Mapovanie tepelných zón[upraviť | upraviť zdroj]

Mapovanie tepelných zón využíva senzory a počítačové modelovanie na vytvorenie trojrozmerného obrazu horúcich a studených zón v dátovom centre.[64] Tieto informácie môžu pomôcť identifikovať optimálne umiestnenie zariadení dátového centra. Napríklad kritické servery môžu byť umiestnené v chladnej zóne, ktorá je obsluhovaná redundantnými AC jednotkami.

Zelené dátové centrá[upraviť | upraviť zdroj]

Dátové centrá spotrebujú veľa energie, ktorá sa spotrebuje na dva hlavné spôsoby použitia: výkon potrebný na prevádzku skutočného zariadenia a potom výkon potrebný na chladenie zariadenia. Znižovanie nákladov na chladenie prirodzenými spôsobmi zahŕňa rozhodnutia o umiestnení: Ak nie je zameranie v blízkosti dobrej optickej konektivity, pripojenia k elektrickej sieti a koncentrácie ľudí na správu zariadení, dátové centrum môže byť na míle vzdialené od používateľov. „Masové“ dátové centrá ako Google alebo Facebook nemusia byť v blízkosti populačných centier. Arktické oblasti môžu využívať vonkajší vzduch ako chladenie. Tieto datacentrá sú čoraz populárnejšie. Ďalším plusom sú obnoviteľné zdroje elektriny. Krajiny s priaznivými podmienkami, ako sú: Kanada[65], Fínsko[66], Švédsko[67], Nórsko[68], a Švajčiarsko[69] sa snažia prilákať dátové centrá cloud computingu. Ťažba bitcoinov je čoraz viac vnímaná ako potenciálny spôsob budovania dátových centier na mieste výroby obnoviteľnej energie. Obmedzená a odrezaná energia môže byť použitá na zabezpečenie transakcií na bitcoinovom blockchaine poskytujúcom ďalší tok príjmov pre výrobcov obnoviteľnej energie.[70]

Opätovné využitie energie[upraviť | upraviť zdroj]

Je veľmi ťažké opätovne využiť teplo, ktoré pochádza zo vzduchom chladených dátových centier. Z tohto dôvodu sú infraštruktúry dátových centier často vybavené tepelnými čerpadlami.[71] Alternatívou k tepelným čerpadlám je použitie kvapalinového chladenia v celom dátovom centre. Rôzne techniky chladenia kvapalinou sú zmiešané a prispôsobené tak, aby umožnili úplne kvapalinou chladenú infraštruktúru, ktorá zachytáva všetko teplo vo vode. Rôzne kvapalné technológie sú kategorizované do 3 hlavných skupín, nepriame kvapalinové chladenie (vodou chladené stojany), priame kvapalinové chladenie (chladenie priamo na čip) a celkové kvapalinové chladenie (úplné ponorenie do kvapaliny). Táto kombinácia technológií umožňuje vytvorenie tepelnej kaskády ako súčasť scenárov teplotného reťazenia na vytvorenie vysokoteplotných výstupov vody z dátového centra.

Dynamická infraštruktúra[upraviť | upraviť zdroj]

Dynamická infraštruktúra[72] poskytuje možnosť inteligentne, automaticky a bezpečne presúvať zaťaženie v rámci dátového centra[73] kedykoľvek a kdekoľvek na účely migrácie, na zvýšenie výkonu[74] alebo budovanie zariadení spoločného umiestnenia. Uľahčuje aj vykonávanie bežnej údržby na fyzických alebo virtuálnych systémoch a zároveň minimalizuje prerušenia. Súvisí s ňou modulárna infraštruktúra, ktorá umožňuje dynamickú rekonfiguráciu dostupných zdrojov tak, aby vyhovovali potrebám, len v prípade potreby.[75] Medzi vedľajšie výhody patrí:

  • zníženie nákladov
  • uľahčenie obchodnej kontinuity a vysokej dostupnosti
  • umožňujúci cloud a grid computing[76]

Sieťová infraštruktúra[upraviť | upraviť zdroj]

Príklad sieťovej infraštruktúry v datacentre

Komunikácia v dátových centrách je najčastejšie založená na sieťach so súpravou IP protokolov. Dátové centrá obsahujú súbor smerovačov a prepínačov, ktoré prenášajú prevádzku medzi servermi a do vonkajšieho sveta[77], ktoré sú prepojené podľa sieťovej architektúry dátového centra. Redundancia internetového pripojenia je často zabezpečená použitím dvoch alebo viacerých poskytovateľov upstream služieb. Niektoré zo serverov v dátovom centre sa používajú na spustenie základných internetových a intranetových služieb, ktoré potrebujú interní používatelia v organizácii, napríklad e-mailové servery, proxy servery a servery DNS. Zvyčajne sa nasadzujú aj prvky zabezpečenia siete: firewally, brány VPN, systémy detekcie narušenia atď. Bežné sú aj monitorovacie systémy pre sieť a niektoré aplikácie. Typické sú aj doplnkové off-site monitorovacie systémy v prípade výpadku komunikácie vo vnútri dátového centra.

Zálohovanie softvéru a dát[upraviť | upraviť zdroj]

Možnosti zálohovania sú:

  • Onsite
  • Offsite

Onsite je tradičné zálohovanie[78] a jednou z hlavných výhod je okamžitá dostupnosť.

Záložné úložisko mimo lokality[upraviť | upraviť zdroj]

Techniky zálohovania údajov zahŕňajú šifrovanú kópiu údajov mimo lokality zálohy. Na prenos údajov sa používajú metódy:[79]

  • nechať zákazníka zapísať údaje na fyzické médium, ako je magnetická páska, a potom pásku prepraviť inam[80]
  • priamy prenos údajov na inú lokalitu počas zálohovania pomocou vhodných odkazov
  • nahrávanie údajov „do cloudu“[81]

Modulárne dátové centrá[upraviť | upraviť zdroj]

Pre rýchle nasadenie alebo obnovu po havárii niekoľko veľkých predajcov hardvéru vyvinulo mobilné/modulárne riešenia, ktoré je možné nainštalovať a uviesť do prevádzky vo veľmi krátkom čase.

Prenosné modulárne datacentrum

Referencie[upraviť | upraviť zdroj]

  1. Angela Bartels. Data Center Evolution: 1960 to 2000 [online]. August 31, 2011. Dostupné online. Archivované 2018-10-24 z originálu.
  2. Cynthia Harvey. Data Center. Datamation, July 10, 2017. Dostupné online.
  3. John Holusha. Commercial Property/Engine Room for the Internet; Combining a Data Center With a 'Telco Hotel'. The New York Times, May 14, 2000. Dostupné online [cit. 2019-06-23].
  4. H Yuan. Workload-Aware Request Routing in Cloud Data Center. . DOI:10.1109/JSEE.2015.00020
  5. Quentin Hardy. A Data Center Power Solution [online]. October 4, 2011. Dostupné online.
  6. Sperling, Ed. "Next-Generation Data Centers," Forbes, March 15. 2010. Forbes.com. Dostupné online [cit. 2013-08-30].
  7. IDC white paper, sponsored by Seagate [online]. . Dostupné online.
  8. Data centers are aging, unsuited for new technologies [online]. December 10, 2007. Dostupné online.
  9. Data center staff are aging faster than the equipment. Network World, August 30, 2018. Dostupné online. Archivované 2018-12-21 na Wayback Machine
  10. Tang, Helen. "Three Signs it's time to transform your data center," August 3, 2010, Data Center Knowledge [online]. . Dostupné online. Archivované 2011-08-10 z originálu.
  11. the Era of Great Data Center Consolidation. Fortune, February 16, 2017. Dostupné online.
  12. This Wave of Data Center Consolidation is Different from the First One [online]. February 8, 2018. Dostupné online.
  13. Top reasons to upgrade vintage data centers [online]. . Dostupné online.
  14. Carousel's Expert Walks Through Major Benefits of Virtualization [online]. . Dostupné online.
  15. HVD: the cloud's silver lining [online]. Intrinsic Technology. Dostupné online. Archivované 2012-10-02 z originálu.
  16. Ritter, Ted. Nemertes Research, "Securing the Data-Center Transformation Aligning Security and Data-Center Dynamics" [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2017-06-25 z originálu.
  17. Ritter, Ted. Nemertes Research, "Securing the Data-Center Transformation Aligning Security and Data-Center Dynamics" [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2017-06-25 z originálu.
  18. Data Center Raised Floor History [online]. . Dostupné online.
  19. Raised Floor Info | Tips for Ordering Replacement Raised Floor Tiles [online]. . Dostupné online.
  20. Hwaiyu Geng. Data Center Handbook. [s.l.] : [s.n.], 2014. Dostupné online. ISBN 978-1118436639.
  21. Steven Spinazzola. HVAC: The Challenge And Benefits of Under Floor Air Distribution Systems [online]. 2005. Dostupné online.
  22. Premier 100 Q&A: HP's CIO sees 'lights-out' data centers. Informationweek, March 6, 2006. Dostupné online.
  23. Victor Kasacavage. Complete book of remote access: connectivity and security. [s.l.] : CRC Press, 2002. ISBN 0-8493-1253-1. S. 227.
  24. Roxanne E. Burkey; Charles V. Breakfield. Designing a total data solution: technology, implementation and deployment. [s.l.] : CRC Press, 2000. ISBN 0-8493-0893-3. S. 24.
  25. Google Container Datacenter Tour (video) [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2022-11-17 z originálu.
  26. Romonet Offers Predictive Modeling Tool For Data Center Planning [online]. June 29, 2011, [cit. 2022-12-02]. Dostupné online. Archivované 2011-08-23 z originálu.
  27. BICSI News Magazine - May/June 2010 [online]. . Dostupné online.
  28. BICSI News Magazine - May/June 2010 [online]. . Dostupné online.
  29. Hedging Your Data Center Power [online]. . Dostupné online.
  30. IBM zEnterprise EC12 Business Value Video [online]. . Dostupné online. Archivované 2012-08-29 z originálu.
  31. Strategies for the Containerized Data Center [online]. September 8, 2011. Dostupné online.
  32. NICCOLAI, James. HP says prefab data center cuts costs in half [online]. 2010-07-27. Dostupné online.
  33. tw telecom and NYSERDA Announce Co-location Expansion. Reuters, 2009-09-14. Dostupné online.
  34. Air to air combat - indirect air cooling wars [online]. . Dostupné online.
  35. Detailed explanation of UPS topologies EVALUATING THE ECONOMIC IMPACT OF UPS TECHNOLOGY [online]. . Dostupné online. Archivované 2010-11-22 z originálu.
  36. Cable tray systems support cables' journey through the data center [online]. April 2016. Dostupné online.
  37. Mike Fox. Stulz announced it has begun manufacturing In Row server cooling units under the name "CyberRow".. DataCenterFix, 2012-02-15. Dostupné online [cit. 2012-02-27]. Archivované 2012-03-01 na Wayback Machine
  38. Hot-Aisle vs. Cold-Aisle Containment for Data Centers, John Niemann, Kevin Brown, and Victor Avelar, APC by Schneider Electric White Paper 135, Revision 1
  39. US Patent Application for DUCTED EXHAUST EQUIPMENT ENCLOSURE Patent Application (Application #20180042143 issued February 8, 2018) - Justia Patents Search [online]. . Dostupné online. (po anglicky)
  40. Airflow Management Basics – Comparing Containment Systems • Data Center Frontier. Data Center Frontier, 2017-07-27. Dostupné online [cit. 2018-04-17]. Archivované 2019-02-19 na Wayback Machine
  41. Data Center Fire Suppression Systems: What Facility Managers Should Consider [online]. . Dostupné online.
  42. Sarah D. Scalet. 19 Ways to Build Physical Security Into a Data Center [online]. Csoonline.com, 2005-11-01, [cit. 2022-12-02]. Dostupné online. Archivované 2008-04-21 z originálu.
  43. Data Center Energy Consumption Trends [online]. U.S. Department of Energy. Dostupné online.
  44. J. Koomey, C. Belady, M. Patterson, A. Santos, K.D. Lange: Assessing Trends Over Time in Performance, Costs, and Energy Use for Servers Released on the web August 17th, 2009.
  45. Data Centres and Data Transmission Networks – Analysis [online]. . Dostupné online. (po anglicky)
  46. KANTOR, Alice. Big Tech races to clean up act as cloud energy use grows. Financial Times, 2021-05-18. Dostupné online [cit. 2022-03-06].
  47. The environmental footprint of data centers in the United States. Environmental Research Letters, 2021-05-21, s. 064017. Dostupné online. ISSN 1748-9326. DOI10.1088/1748-9326/abfba1. (po anglicky)
  48. JAMES, Greg. Tencent pledges to achieve carbon neutrality by 2030 [online]. 2022-03-01, [cit. 2022-12-02]. Dostupné online. Archivované 2022-07-11 z originálu. (po anglicky)
  49. Report to Congress on Server and Data Center Energy Efficiency [online]. U.S. Environmental Protection Agency ENERGY STAR Program. Dostupné online.
  50. Data Center Energy Forecast [online]. Silicon Valley Leadership Group. Dostupné online. Archivované 2011-07-07 z originálu.
  51. Efficiency: How we do it – Data centers [online]. . Dostupné online.
  52. Commentary on introduction of Energy Star for Data Centers Introducing EPA ENERGY STAR for Data Centers [online]. Jack Pouchet, 2010-09-27. Dostupné online. Archivované 2010-09-25 z originálu.
  53. EU Code of Conduct for Data Centres [online]. iet.jrc.ec.europa.eu. Dostupné online. Archivované 2013-08-11 z originálu.
  54. UNICOM Global :: Home [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2012-12-03 z originálu.
  55. Daniel Minoli. Designing Green Networks and Network Operations: Saving Run-the-Engine Costs. [s.l.] : CRC Press, 2011. ISBN 9781439816394. S. 5.
  56. Rabih Bashroush. A Comprehensive Reasoning Framework for Hardware Refresh in Data Centres. IEEE Transactions on Sustainable Computing, 2018, s. 209–220. DOI10.1109/TSUSC.2018.2795465.
  57. a b Peter Sayer. What is the Open Compute Project? [online]. NetworkWorld, March 28, 2018, [cit. 2022-12-02]. Dostupné online. Archivované 2019-02-15 z originálu.
  58. Peter Judge. OCP Summit: Google joins and shares 48V tech [online]. DCD Data center Dynamics, March 9, 2016. Dostupné online.
  59. HP's Green Data Center Portfolio Keeps Growing - InternetNews. [online]. 25 July 2007. Dostupné online.
  60. Siranosian, Kathryn. "HP Shows Companies How to Integrate Energy Management and Carbon Reduction," TriplePundit, April 5, 2011. [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2018-08-22 z originálu.
  61. Architectural Principles for Energy-Aware Internet-Scale Applications. IEEE Software, 2017, s. 14–17. DOI10.1109/MS.2017.60.
  62. Bullock, Michael. "Computation Fluid Dynamics - Hot topic at Data Center World," Transitional Data Services, March 18, 2010. Archivované január 3, 2012, na Wayback Machine
  63. Bouley, Dennis (editor). "Impact of Virtualization on Data Center Physical Infrastructure," The Green grid, 2010. [online]. . Dostupné online. Archivované 2014-04-29 z originálu.
  64. HP Thermal Zone Mapping plots data center hot spots [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2021-01-26 z originálu.
  65. Canada Called Prime Real Estate for Massive Data Computers - Globe & Mail Retrieved June 29, 2011.
  66. Finland - First Choice for Siting Your Cloud Computing Data Center.. Retrieved 4 August 2010.
  67. Stockholm sets sights on data center customers [online]. . Dostupné online. Archivované 2010-08-19 z originálu.
  68. In a world of rapidly increasing carbon emissions from the ICT industry, Norway offers a sustainable solution Archivované 2020-10-29 na Wayback Machine Retrieved 1 March 2016.
  69. Swiss Carbon-Neutral Servers Hit the Cloud.. Retrieved 4 August 2010.
  70. BITCOIN, Surplus. Bitcoin Does Not Waste Energy [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2022-05-28 z originálu. (po anglicky)
  71. Data Center Cooling with Heat Recovery [online]. January 23, 2017. Dostupné online.
  72. Method for Dynamic Information Technology Infrastructure Provisioning [online]. . Dostupné online.
  73. MEYLER, Kerrie. The Dynamic Datacenter [online]. April 29, 2008. Dostupné online.
  74. Computation on Demand: The Promise of Dynamic Provisioning [online]. . Dostupné online. [nefunkčný odkaz]
  75. Just What the Heck Is Composable Infrastructure, Anyway? [online]. July 14, 2016. Dostupné online.
  76. MONTAZEROLGHAEM, Ahmadreza. Software-defined load-balanced data center: design, implementation and performance analysis. Cluster Computing, 2020-07-13, s. 591–610. Dostupné online. ISSN 1386-7857. DOI10.1007/s10586-020-03134-x.
  77. Datacenter Traffic Control: Understanding Techniques and Tradeoffs. IEEE Communications Surveys & Tutorials, July 16, 2018, s. 1492–1525. DOI10.1109/comst.2017.2782753.
  78. Protecting Data Without Blowing The Budget, Part 1: Onsite Backup. Forbes, October 4, 2018. Dostupné online.
  79. Iron Mountain vs Amazon Glacier: Total Cost Analysis [online]. [Cit. 2022-12-02]. Dostupné online. Archivované 2018-10-28 z originálu.
  80. PTAM - Pickup Truck Access Method (disaster recovery slang) [online]. . Dostupné online.
  81. Iron Mountain introduces cloud backup and management service [online]. September 14, 2017. Dostupné online. Archivované 2018-10-28 na Wayback Machine

Iné projekty[upraviť | upraviť zdroj]

Externé odkazy[upraviť | upraviť zdroj]

Zdroj[upraviť | upraviť zdroj]

Tento článok je čiastočný alebo úplný preklad článku Data center na anglickej Wikipédii.