Az adatközpontok építéséhez és működtetéséhez szükséges technológiák látványos fejlődésen mentek és mennek keresztül, de önmagában véve ez még kevés – az igények eredményes kiszolgálásához informatika-szemléletünknek is meg kell változnia.
A felhőszolgáltatások és a mobil eszközök terjedése mind nagyobb igényeket támaszt az adatközpontokkal, az adattárolással és a feldolgozási kapacitással szemben – mondta Szarka Attila, az APC by Schneider Electric adatközpont-megoldásokért felelős üzletfejlesztési igazgatója év végi körinterjúnkban, melyben a nemzetközi szállítókat a területet formáló trendekről kérdeztük. – Elemzői becslések alapján a tárolt adatmennyiség a következő 5 évben 800 százalékkal fog nőni. A gyártók olyan megoldásokkal jelentkeznek, amelyek mind nagyobb teljesítménysűrűség elérését teszik lehetővé a rendszerek energiafogyasztásának hasonló mértékű növekedése nélkül. A felhőkörnyezetek alapjául is szolgáló virtualizáció rohamosan terjed. A Gartner szerint a virtualizált szerverek aránya a tavalyi 46 százalékról 2016-re el fogja érni a 71 százalékot.
A Kapsch pedig arra számít, hogy a szervervirtualizáció – néhány speciális esettől eltekintve – 2015-re 100 százalékossá válhat. A szerverek virtualizálásával nemcsak nagyobb teljesítménysűrűség érhető el az adatközpontban, hanem a terhelés változásai is könnyebben és gyorsabban kezelhetők, mindez azonban próbára teszi a hűtés infrastruktúráját. A nagymértékű kapacitásközpontosítás ezért az adatközpont infrastruktúrájában is szerkezeti változtatásokat tesz szükségessé.
– A költségek csökkentésére törekvő szervezetek a szerverberuházásokat ugyan visszafoghatják, az egy szerver üzemeltetésére fordított energia költsége azonban a szerver élettartama alatt elérheti annak árát – mondta Szarka Attila. – Az IDC és más elemzők szerint legnagyobb mértékben az olyan egyéb szerverüzemeltetési költségek nőnek, mint pl. a szervermenedzsment, és a növekedés egyenes arányban áll a virtuális szerverek terjedésével. A vállalati informatika saját üzemeltetői tevékenységét az eddigiekben jellemzően nem támogatta olyan fejlett megoldásokkal, mint az üzleti vagy gyártási folyamatokat. Az Uptime Institute-ról is ismert The 451 Group több más elemzőhöz hasonlóan ezért prognosztizál közel 40 százalékos éves növekedést az adatközponti infrastruktúramenedzsment(DCIM)-rendszerek piacán.
Mindezek a törekvések, trendek és fejlesztések arra irányulnak, hogy az adatközpont minél kisebb költség mellett bővülő kapacitást és magasabb rendelkezésre állású szolgáltatásokat biztosíthasson, méghozzá úgy, hogy az üzleti döntések nyomán szükségessé váló változtatások a lehető legrövidebb idő alatt megtörténhessenek.
– Az adatközpontok fizikai infrastruktúráját tekintve egyre nagyobb mértékben terjed a moduláris megközelítést és felépítést biztosító, standardizált, skálázható megoldásokon alapuló architektúra – mondta Szarka Attila. – A legnagyobb változást azonban kétségtelenül a menedzsmentrendszerek piacán tapasztaljuk, az erre vonatkozó előrejelzések nem tűnnek túlzónak. Mind több cég ismeri fel a komplex, sokfunkciós adatközponti infrastruktúramenedzsment-megoldások előnyeit: a jobb kapacitáskihasználást és kiszámíthatóbb, tervezhetőbb működést, az alacsonyabb beruházási és üzemeltetési költségigényt, valamint az egységes rálátást a különböző részlegeket kiszolgáló rendszerekre.
A Gartner szerint a DCIM rendszerek jelenlegi, néhány százalékos penetrációja 2015 után 80 százalék fölé fog nőni, lejár az Excel táblák és a becslések ideje a kapacitástervezésben.
A cikk folytatódik a második oldalon
Megújuló energiaforrások
Vad János, az IBM Magyarország adatközpont-szakértője rámutatott, hogy az adatközpontok fejlődését meghatározó trendek két aspektusból – a szerverek és alkalmazások, valamint az adatközpontokat kiszolgáló infrastruktúrák vonatkozásában – vizsgálhatók.
– A szerverek és alkalmazások területén a virtualizálás, a rugalmas számításierőforrás-allokáció és -gazdálkodás, valamint a felhőalapú szolgáltatások robbanásszerű elterjedése hozza a legnagyobb változást – mondta a szakember. – E trendek közvetlen hatására teljesen át fognak alakulni a jelenlegi, főként statikus szerverek alkalmazására berendezett adatközponti topológiák.
A virtualizálás és a felhőalapú szolgáltatási struktúra elterjedésével hangsúlyossá válik a kommunikációs hálózatok szerepe az adatközpontok közötti nagysebességű, szélessávú kapcsolatokban, miként az infrastruktúra fizikai menedzsmentjén túl a komplex felügyeleti rendszerek az adatközpontok és az ott működő alkalmazások üzemeltetésében is mind fontosabbá válnak.
Az adatközpontot kiszolgáló infrastruktúrák területén az energia- és költséghatékony üzemeltetést lehetővé tévő technológiák szolgálnak a legizgalmasabb újdonságokkal.
– Közülük is kiemelkedik a hűtéstechnikai megoldások számos újdonsága, mint például a folyadékhűtéssel kombinált szabad hűtés (free cooling), amellyel Magyarországon átlagosan évi 5 ezer óra takarítható meg a hűtőkompresszor üzemidejéből, a hozzá kapcsolódó villamosenergia-fogyasztással együtt – mondta Vad János. – A klasszikus DX (Direkt eXpanziós) technológiához képest a villamosenergia-megtakarítás a 35-40 százalékot is elérheti, így a beruházás 3-5 év alatt megtérül. Jelentős energiahatékonyság érhető el az adiabatikus hűtéstechnológiák alkalmazásával is, amelyek a permetezett folyadékok hőabszorpciós képességét aknázzák ki. Helyigényük és beruházási költségük ugyan fajlagosan magasabb a szokványos adatközponti hűtéstechnológiákkal összehasonlítva, de a beruházás igen gyorsan, mindössze 1,5-2,5 év alatt megtérül, segítségükkel rövid időn belül komoly megtakarítás érhető el az energiaköltség terén.
A szünetmentes energiaellátás területén is technológiaváltás küszöbén állunk. Fokozatosan teret nyernek a napelemes (photovoltaic, PV) áramtermelő rendszerek, melyek speciális kivitelű, szünetmentes rendszerekkel kiegészítve az adatközpontok egyenáramú tápellátására is lehetőséget adnak.
– Bár a napelemes rendszerek beruházási költsége a millió forintos nagyságrendet is elérheti négyzetméterenként, a megújuló energiaforrás használata mégis nagy megtakarítást eredményez – mondta Vad János. – Másrészt az egyenfeszültségű, 48 V-os rendszerek, melyeket a távközléstechnika régóta alkalmaz, megtakarítják az energiaellátás folyamatában a többszöri konverziót és a váltóáramú transzformálást, ezzel kiküszöbölik a veszteségeket is. Az utóbbi 2 évben jelentek meg a piacon azok a LED-alapú fényforrások, amelyek forradalmasítják az adatközpontokban használt világítástechnikát. Az SMD-LED (Surface Mounted Device-Light Emitting Diode)-eszközök ugyanis azonos fényteljesítményt biztosító, csatlakozás szintjén csereszabatos kivitelű, 6-9 wattos diódákkal váltják ki a hagyományos, 14-35 wattos fénycsöveket.
Az ilyen és hasonló fejlesztéseknek köszönhetően az adatközpont energiahatékonyságának mérőszáma, a PUE (Power Usage Effectiveness) a jelenlegi 2,5-3,5 értékről, amely Magyarországon és a környező országokban megszokottnak számít, a valódi energiahatékonyságot mutató 1,7, 1,5, 1,35 PUE-érték irányába mozdulhat.
Egyenáramú adatközpontok
Egy adatközpont felépítése általában 30-100-szor nagyobb költséggel jár, mint egy hasonló méretű irodaház felhúzása. Az egyenáramú adatközpontok kisebb helyigényük következtében akár 75 százalékkal is csökkenthetik ezeket a beruházási költségeket.
– Egyszerűen kevesebb berendezésre van szükség egy egyenáramú adatközpont működéséhez, így a létesítmény is kisebb lehet – mondta Farkas Tibor, az ABB Kft. folyamat-automatizálási divíziójának kereskedelmi vezetője. – De a megtakarítás nemcsak a telekáron és az építkezés költségein, hanem az adatközpont üzemeltetésén is lemérhető. A DC adatközpontok általában évi 10 százalékos energiamegtakarításra képesek, szemben egy hasonló AC létesítménnyel. Egy 20 ezer négyzetméteres, Tier 4-es adatközpont pl. várhatóan 2 millió dollár megtakarítást eredményezhet az első évben, míg 15 év távlatában már ennek több mint a dupláját. Ez teljes egészében a DC jóval egyszerűbb és hatékonyabb rendszertopológiájának, valamint az AC rendszereknél megszokott, négy vagy öt transzformációs lépés kihagyásának köszönhető. Négy vagy öt transzformátor kiküszöbölése azt is jelenti, hogy az általuk generált hő is kiiktatódik, így a hűtés sokkal inkább az informatikai berendezésekre összpontosítható.
Az adatközpontok megbízható működéséhez szükséges, hogy redundáns betáplálással jussanak villamos energiához, ezért általában valamilyen helyi szinten termelt villamos energiát is használnak, a szünetmentes áramforrások mellett áramfejlesztőt, napelemeket, akár a villamosenergia-termelő források kombinációját is használhatják.
– Hosszú távon a fejlődés olyan rendkívül dinamikus ipari üzemek irányába mutat, melyek szigorú követelményeket támasztanak mind a megbízhatósággal, mind a teljesítménnyel kapcsolatban, és alkalmasak lehetnek kisegítő szolgáltatásokat nyújtó programok bevezetésére – mondta Farkas Tibor. – Az adatközpont például a terhelés egy részét csúcsidőszakon kívüli periódusokra ütemezheti át, a munkát kevesebb szerverre csoportosíthatja, a termikus határvonalhoz közelebb működtetheti a berendezéseket, a számítási feladatok egy részét átterhelheti egy másik, energiahatékonyság szempontjából éppen jobb körülmények között működő adatközpontba, illetve a helyben termelt, felesleges energiát tárolhatja, vagy más fogyasztók számára felhasználhatóvá teheti az intelligens hálózatban. Az adatközpontok világában azonban egyelőre túl sok a nyers adat, elveszhet az információ, amely nélkül a villamos energia felhasználása aligha optimalizálható a megbízhatóság fenntartása mellett.
Ehhez szükséges egy olyan adatközpont-menedzsment-megoldás, amely egyrészt integrált képet, egységes, könnyen érthető információt ad az összes kritikus folyamatról, másrészt az üzemeltetés automatizálásával egyszerre biztosítja az optimális teljesítményt és a megbízhatóságot.
A cikk folytatódik a harmadik oldalon
Fitt létesítmények
Amikor az adatközpontok energiafogyasztását vizsgáljuk, akkor az IT-tartalom mellett a rendszereket befogadó létesítményről sem feledkezhetünk meg. A mind nagyobb teljesítménysűrűséget elérő szerverek és a fenntarthatósággal kapcsolatos elvárások az épületek tervezőit és kivitelezőit is új feladatok elé állítják.
– A HP öt adatközpont-réteget különböztet meg: létesítmény, infrastruktúra, alkalmazás, felügyelet és irányítás, azaz governance – mondta Szekrényes Zoltán, a HP Magyarország felhőalapú megoldásokért felelős vezető tanácsadója. – Fontos szem előtt tartani, hogy ezek a domainek szorosan összefüggnek, hatnak egymásra, amire adatközpont-átalakítási módszertanunk is felhívja a figyelmet. Olyan keretrendszert dolgoztunk ki, amely segíti a vállalatokat a több évtizedre szóló ingatlan-, a 3-4 évente ismétlődő IT-beruházások és a tízévente sorra kerülő, nagyobb fejlesztések összehangolásában.
A processzortechnológia, a blade rendszerek, a virtualizáció fejlődésének köszönhetően a rackszekrényekben mind nagyobb számítási teljesítmény összpontosul egyre kisebb alapterületen. A meglévő adatközpontok többsége azonban alkalmatlan a súlyosabbá váló és nagyobb hőt termelő gépek befogadására, vagy túlméretezett hozzájuk képest.
- Egy adatközpont-konszolidációs projekt végén gyakran szembesülünk azzal, hogy a létesítmény lötyög a benne elhelyezett rendszereken – mondta Szekrényes Zoltán. – Valós életből vett példával illusztrálva a vállalat egy tárgyalót is berendezhet a helyszínen, mert elfér a konszolidált infrastruktúra mellett. A növekvő teljesítménysűrűség ugyanakkor komoly problémát is jelenthet az adatközpont elhelyezését illetően. A négyzetméterenkénti terhelés az egy tonnát is meghaladhatja, amit nem minden födém bír ki, és a nagyobb hűtés-, illetve energiaigény kiszolgálása is akadályokba ütközhet. Mindennek következtében az irodaházakban kialakított adatközpontok egyre kevésbé lesznek fenntarthatóak, a szervezetek a továbbiakban vagy kicsi és rendkívül hatékony adatközpontokat fognak kialakítani, vagy adatközpont-szolgáltatókhoz fordulnak.
Ez utóbbi trendet a hazai piacon is tapasztaljuk, a növekvő keresletet a szolgáltatók, közöttük a távközlési cégek adatközpont-beruházásai híven tükrözik.
Az adatközpont-üzemeltetés kihelyezése az infrastruktúra virtualizálását követően felerősíti a szabványosításra és automatizálásra irányuló törekvéseket, ami felgyorsíthatja a felhőszolgáltatások terjedését. Az alkalmazásszállítók licencpolitikája azonban – bár vannak kivételek – egyelőre nem nevezhető felhőbarátnak, ami a piacot a nyílt forráskódú szoftverek irányába mozdíthatja. Ha egy-egy vállalat számára túl költséges lenne a nyílt forráskódú szoftverek használatához szükséges, házon belüli kompetencia kiépítése, egy adatközpont-szolgáltatónak ez mindenképp kifizetődik.
– A felhőalapú megoldások térhódításával tovább nő az adatközpont-felügyelet és az irányítás szerepe is – mondta Szekrényes Zoltán. – A legnagyobb változás mindebben az lesz, hogy az IT governance mindinkább az üzleti oldal befolyása alá kerül. Megszűnik az önálló IT stratégia, eggyé válik a vállalati stratégiával, amelyet az IT szolgáltatásokat használó üzleti oldal formál.
Az infrastruktúra szövete
A Cisco nemrégiben közzétett Cloud Index tanulmánya szerint 2016-ra az adatközpontok hálózati forgalma a jelenlegi négyszeresére fog nőni. Egyre több alkalmazás kerül az adatközpontokba, így a szükséges számítási, tárolási és átviteli kapacitás biztosítása is mind nagyobb erőforrásokat követel.
– Az adatközpont-üzemeltetőknek a rohamosan növekvő igényeket a lehető legnagyobb költséghatékonyság mellett kell kiszolgálniuk, amit az infrastruktúra konszolidálásán keresztül igyekeznek elérni – mondta Boross Ádám, a Cisco Magyarország konzultáns rendszermérnöke. – A konszolidációt elősegítő egyik legfontosabb innovációt az FCoE (Fibre Channel over Ethernet) protokoll megalkotása jelentette, melynek segítségével a hagyományos Ethernet (LAN) és az adattároló hálózati (SAN) forgalom egyetlen, nagy rendelkezésre állású, konszolidált hálózaton vihető át. A protokoll mind szélesebb körű támogatottságnak örvend, a közelmúltban számos gyártó kínálatában megjelentek az FCoE termékek.
A növekvő erőforrásigények miatt a konszolidációhoz hasonlóan minden eddiginél fontosabbá vált a rendszerek skálázhatósága. Az adatközpont infrastruktúráját ezért érdemes úgy kialakítani, hogy könnyű bővíthetőséggel és egyszerű üzemeltethetőséggel támogassa, rugalmasan kövesse az alkalmazáspark bővülését.
– A konszolidáció és a skálázhatóság elvére épül a fabric computing koncepció – mondta Boross Ádám. – Az elnevezést a Gartner vezette be azon adatközponti megoldások megjelölésére, amelyek egységes hálózaton kötik össze a számítási és tárolási kapacitásokat, és hatékony eszközökkel, például központi menedzsmentfelülettel segítik felügyeletüket. Ezek a fejlesztések alapjaiban változtathatják meg a hagyományosan statikus, különálló LAN, SAN, szerver és adattároló „silókra” épülő adatközpontokat. Várható, hogy a felhasználók új adatközpont-beruházásaikhoz céleszközök helyett mindinkább olyan infrastruktúrát választanak, amely dinamikusan bővíthető és módosítható az alkalmazáspark igényeinek függvényében.
Létezik azonban más megközelítés is, amely mellett hasonlóan nyomós érvek szólnak. A Gartner Research 2012-es felmérése szerint a vállalatok IT-költségvetésük 63 százalékát az üzemeltetésre, 21 százalékát pedig a növekvő adatmennyiség és terhelés kezelésére fordítják. Csupán 16 százalék marad az új üzleti igények megvalósítására, fejlesztésekre és átalakításokra.
– Roppant fontos az üzemeltetési költségek csökkentése, hogy minél több forrás jusson az új, gyakran változó üzleti igények kiszolgálására – mondta Sárecz Lajos, az Oracle Hungary vezető értékesítési tanácsadója. – Ehhez elengedhetetlen az IT környezet egyszerűsítése, de csak kevés cég engedheti meg magának, hogy IT csapata komplex rendszerek tervezésével, konfigurálásával, kiépítésével és finomhangolásával töltse idejét. Ezért egyre több gyártó készít olyan célrendszereket különböző alkalmazásokhoz, melyek hardver- és szoftverkomponenseit együtt fejlesztette, integrálta, tesztelte és optimalizálta, így azok egyben kerülnek leszállításra, és a támogatás is egy pontban érhető el hozzájuk. Célrendszerek alkalmazásával a felhasználók rengeteg időt és pénzt takaríthatnak meg, az IT szervezetek a valós üzleti igények kiszolgálására fókuszálhatnak.
A Cloudera felmérése szerint 2011-ben 1,8 trillió gigabájt adat keletkezett a világon, amelynek 90 százaléka nem strukturált – és ez a mennyiség kétévente meg fog duplázódni. A nagy mennyiségű, nem strukturált, folyamatosan változó adatok begyűjtésére, feldolgozására, elemzésére szolgálnak a Big Data (magyarul Nagy Adat) technológiák, azonban az ilyen alkalmazások kimenetét is célszerű integrálni a strukturált adatokkal, a szervezet információvagyonával. A megfelelő eszközöket tartalmazó célrendszerek nagyban megkönnyíthetik a Big Data elemzésekkel nyert, immár strukturált adatok eljuttatását a hagyományos vagy memóriában futó adatbázisokba és üzleti intelligencia-rendszerekbe.
– A nem strukturált adatok elemzése minden szervezet számára nagy lehetőségeket tartogat, de a hazai piacon egyelőre kevesen ismerték fel az ebben rejlő üzleti értéket – mondta Sárecz Lajos. – Az elnevezés alapján sokan úgy gondolják, a Big Data alkalmazások nem számukra készültek, mivel nincs birtokukban kellően nagy adatmennyiség. Az adatok azonban külső forrásokból (pl. az olyan kapcsolati hálókról, mint a Facebook vagy a Twitter) is származhatnak, ráadásul nem kell minden esetben petabájtokra gondolni, a Big Data technológiák néhány száz gigabájt adatmennyiség felett is hasznosak lehetnek. A célrendszerek alkalmazása szempontjából azonban a legfőbb problémát a szervezeti tagozódás merevsége jelenti.
A nagyvállalatoknál külön csapat felel a szerverek, a tárolók és a hálózat üzemeltetéséért, sőt ezek a területek külön költségvetésből gazdálkodnak. Így elég nehéz bevezetni egy több területet átívelő, komplex célrendszert, különösen akkor, ha a különböző, meglévő elemek is életciklusuk eltérő szakaszánál tartanak, például a szerverek már cserére szorulnak, a tárolóréteg viszont vadonatúj. Ezért érdemes fontolóra venni a szervezeti átalakítást, mely önmagában költségoptimalizálást jelenthet, nem is beszélve a célrendszerek költséghatékony üzemeltetésével elérhető megtakarításokról.
Holisztikus megközelítés
Az adatközpontokat jelenleg formáló trendeket az üzemeltetési költségek csökkentésére és a magas szintű megbízhatóságra irányuló törekvések hívták életre. A verseny- és a közszféra szereplőinél keletkező és feldolgozásra kerülő adatok mennyisége exponenciálisan növekszik, melynek kezelése, tárolása, mentése és archiválása kihívásokat és rendkívüli költségterhet jelent. A gazdasági válság körülményei között a hagyományos kialakítású vállalati adatközpontok üzemeltetése egyre kevésbé fenntartható.
– Kiutat a konszolidált infrastruktúrára épülő, felhőalapú megoldások kínálnak – mondta Kubányi Péter, a Fujitsu Technology Solutions Kft. értékesítési menedzsere. – A vállalat a meglévő infrastruktúrák optimalizálásával, magánfelhő-környezetek építésével teheti meg az első lépéseket ebbe az irányba. A feltételek adottak ehhez, mivel a magyar gazdasági szervezetek jelentős része már virtualizált és konszolidált IT-infrastruktúrával rendelkezik. Persze a magánfelhő kialakítása is beruházásokkal jár és rendszerfelügyeletet igényel, az üzemeltetésen azonban így is jelentős költségmegtakarítás érhető el. A piacról érkező visszajelzésekből ítélve a magyar közép- és nagyvállalatok most lépnek erre az útra. A kis- és mikrovállalatok számára 2013 a felhődilemma éve lesz. El kell majd dönteniük, hogy az informatikát milyen formában használják tovább, sok választásuk azonban nem lesz. Ebben a szektorban ugyanis az előrejelzések szerint csökkenni fog a szervereladások száma, így várható, hogy a nyilvános felhőben elérhető szolgáltatások kerülnek előtérbe.
Hosszabb távon a költségoptimalizálás leghatékonyabb módja az adatközpontok felhőbe történő, teljes kiszervezése lesz. A szolgáltatásként igénybe vett vállalati informatikának nincs beruházási költsége, felügyeletére sem kell külön csapatot létrehozni, és csak a felhasználás arányában kell érte fizetni.
– Ez a modell Nyugat-Európában is csak most kezd terjedni, mivel a meglévő vállalati infrastruktúrák még nem jutottak el életciklusuk végére – mondta Kubányi Péter. – Hosszabb távon azonban a gazdasági kényszer a nagy szervezeteket is rá fogja szorítani az IT-infrastruktúra teljes kiszervezésére. Magyarországon 2013 az adatközpontok és egyéb informatikai fejlesztések éve lesz, tekintettel arra, hogy a szűkre szabott beruházási keret miatt a vállalatok az elmúlt években halogatták projektjeiket, így az elöregedett IT-infrastruktúrák frissítése jövőre elkerülhetetlenné válik.
Nem mindegy azonban, hogy a fejlesztéseket miként fogják megvalósítani. A komplex rendszerek, így az adatközpontok esetében is a holisztikus megközelítés vezet el a megoldáshoz, de ez a szemlélet Magyarországon egyelőre nem terjedt el szélesebb körben.
– A hazai vállalatok is törekednek az adatközpontok hatékony üzemeltetésére, de ez többnyire kimerül egy önkényesen megválasztott PUE érték megkövetelésében, ami önmagában még félrevezető is lehet – mondta Szarka Attila. – A döntéseket nem előzi meg minden esetben egy olyan elemzés, amely az infrastruktúrán kívüli rendszerekre és területekre, az üzemeltetésre, a kapacitások kihasználhatóságára, az üzleti igények és az adatközponti szolgáltatások minél egyszerűbb összehangolhatóságára is kiterjed. Olyan szemléletet tükröz ez, amelyen változtatni kellene.
Az adatközpont hatékonyságát nem lehet egyedül az energia felhasználásán keresztül mérni, hanem figyelembe kell venni a teljes IT-infrastruktúra, az IT-eszközök és -alkalmazások, valamint a fizikai infrastruktúra üzemeltetésének és menedzselésének költségeit és megtakarítási lehetőségeit is. Le kell számolni azzal a tévhittel is, hogy valamely megoldás minden vállalat számára egyaránt hasznos és előnyös lehet. Csak az adatközpont mint egységes rendszer és üzleti folyamatok összehangolása teszi lehetővé az előnyök maximalizálását, majd egy korszerű, átfogó DCIM menedzsmentrendszerre is szükség lesz ahhoz, hogy az elért eredményeket a vállalat hosszú távon is élvezhesse.