A nagyobb hatékonyság, a jobb alkalmazáskezelés, az alacsonyabb költségek, az agilitás és a skálázhatóság reményében számtalan szervezet helyezte már át működését valamilyen módon a felhőbe. Az évek során azonban a felhő ugyanolyan bonyolulttá vált, mint amilyen kifinomult lett, így a legtöbb szervezetet örökös egyensúlyozásra kényszeríti a munkaterhelések lehető leghatékonyabb elhelyezésekor - történjen az helyben, a felhőben, a peremhálózaton, vagy ezek bármilyen kombinációjában.
Miközben ez a környezet egyre összetettebbé válik, információs és kommunikációs igényeink miatt mind nagyobb mértékben támaszkodunk rá. Olyannyira, hogy bölcsen tennénk, ha a felhőben ma már nem az agilis IT helyét látnánk - amiről egyébként ismertté vált -, hanem felismernénk benne a valódi, önmagában is létező működési modellt, amely kritikus fontosságú az üzleti eredmények eléréséhez.
Üzleti modell és az adattömeg
Hihetetlen mennyiségű adatot hozunk létre, kezelünk, bányászunk és finomítunk a felhőben, hogy segítsük vállalkozásainkat az üzleti működés gyakorlatilag minden területén. Adatsíkokat integrálunk az információk vállalati szintű szállításához, sikeres adatcserét biztosító szöveteket hozunk létre a többfelhős környezetekben, felügyeleti rendszereket alakítunk ki az adatok rögzítéséhez, rendszerezéséhez és felhasználásuk engedélyezéséhez - és tesszük mindezt a szélesebb értelemben vett üzleti modell támogatása érdekében. A szoftvert ezáltal elvonatkoztatjuk, és egy közös adatsíkon keresztül elválasztjuk az alatta lévő digitális infrastruktúrától. Elrejtjük a felhasználók elől a felhő összetettségét, miközben növeljük az általunk védett digitális eszközök átláthatóságát és felügyelhetőségét.
Eljutottunk ezzel a pontig, amelyen túl az összes adatot ellenőrizzük, kezeljük és előkészítjük az üzleti egységek és modellek támogatásához.
Legyünk biztosak ugyanakkor abban, hogy a felhő, mint új működési modell kezelése véget nem érő evolúciós folyamat, amely 2023-ban is kritikusan fontos. A digitális univerzum e sorok írása közben is tovább bővül, mivel az IoT, az IIoT, a közösségi média és most már a generatív AI alkalmazások és eszközök adatai is egyre jobban duzzasztják az adatközpontokat. Valójában a friss, tisztított adatok iránti igény - amelyek többek között olyan eszközök működtetéséhez szükségesek, mint az OpenAI ChatGPT vagy a Google Bard - soha nem lesz teljesen kiszolgálható, mivel az adatforrások, a felhasználók és a rendszerek még több adatot hoznak létre, és még több információt várnak.
A Hitachi Vantara szerint ez az új működési modell az adatokra összpontosít, mivel azokat már nem zárja be egyetlen helyre. Ebben a modellben az adatok egy közös adatsíkon keresztül elérhetők és hozzáférhetők. Az olyan dolgok, mint az adatkezelés, tárolás, elemzés, mesterséges intelligencia, összefonódnak és bizonyos értelemben valami nagyobbá válnak, mint maga a technológia.
Koncepciónk lehetővé teszi, hogy az IT-vezetők digitális környezetüket az információk és alkalmazások felhasználása köré szervezzék, kifejezetten az üzleti modell támogatása érdekében. A folyamat során az adatbányászat és -feldolgozás egyszerűsödik, mivel az adatsilók megszűnnek, a hozzáférés és a rendelkezésre állás pedig növekszik. Ebben a működési modellben a megfelelő adatok a megfelelő emberekhez a megfelelő időben jutnak el.
Túl a digitális infrastruktúrán
Mindez távol áll a felhő hagyományos felfogásától, amely adatközpontokat, szerverállványokat, kábeleket, XaaS-képességeket és hasonlókat lát a modellben. Megközelítésünk ehelyett az eredményekre, az információk kinyerésére és áramlására összpontosít. Koncepciónk valójában kiterjed a digitális infrastruktúrára is, amely azonban a rendszereket sokkal inkább szoftverként, semmint puszta "hardverként" értelmezi. A szoftveralapú, szoftveresen rétegzett infrastruktúra lesz az egységesítő elem a hibrid és többfelhős környezetekben.
Miért fontos ez? A vállalatok gyors egymásutánban szembesülnek felforgató erejű változásokkal. Legyen szó a generatív AI térhódításáról, a végtelenül növekvő adattömeg kezeléséről vagy a kiberbűnözés elharapózásáról, a megbízható adatokhoz való hozzáférés igénye napról napra kritikusabbá válik.
A kihívások egy új szakterületet is életre hívtak. Az adatmegbízhatósági mérnöki munkában a DevOps- és a telephely-megbízhatósági képességek az adatrendszerekkel találkoznak. Ahogy az adatmegbízhatósággal foglalkozó Monte Carlo cég nemrégiben fogalmazott, "...az adatmegbízhatósági mérnök elsődleges szerepe, hogy biztosítsa, a kiváló minőségű adatok a szervezeten belül könnyen elérhetőek és mindenkor megbízhatóak legyenek".
A mesterséges intelligenciát, akárcsak az üzleti életet, az adatok táplálják. A hibrid és többfelhős környezetek növekvő összetettségével szembesülve a szervezetek bölcsen teszik, ha újszerűen közelítenek a felhőhöz; olyan megközelítést alkalmaznak, amely folyamatosan rendelkezésre álló adatokhoz és kritikus fontosságú felismerésekhez juttatja az üzletet, és felgyorsítja a stratégiai döntéshozást, mert így magabiztosan tekinthetnek a jövőbe. A felhő ugyanis a korábban megismert előnyöket kínáló környezetnél sokkal több, a jövő működési modellje.