Tíz évvel ezelőtt Mark Raskino, a Gartner elemzője a real time adatfeldolgozást az évtized legfontosabb üzleti tényezőjeként említette; az elmúlt évek során a valós idejűség csak még fontosabbá vált, és a versenyképesség alapja lett. Mivel Raskino meglepő kijelentése nemcsak az informatika iparára vonatkozott, így képes volt ‒ ha csak átmenetileg is ‒ felkavarni az ezredfordulós gazdaság állóvizét. 2000 tavasza, a dotcom bukás után bőven tartogatott meglepetéseket a részvényeseknek: ekkor csődölt be az energiakereskedő óriásvállalat, az Enron, továbbá Amerika akkor második legnagyobb távközlési cége, a WorldCom. Ezt látva a vállalatok szorosabbra húzták a gyeplőt, szinte minden pénzügyi igazgató a „nagy teljesítmény, kevés pénz” szlogenjét fújta; a megszorító intézkedések következményeként a fejlesztés is lendületét vesztette.
Real time a nagyobb hatékonyság érdekében
Ebben a közegben valóban újként hatott Raskino kijelentése -, a Gartner-elemző két legyet akart ütni egy csapásra: az adatfeldolgozást a vállalatok ügyeihez optimalizálva csökkenteni kívánta a reakcióidőt, illetve a fejlesztési kényszerrel segíteni a válságban megtépázott IT-piacot. Bár a megvalósíthatóság elméletét jó ideig csak Raskino képviselte, a „real-time vállalkozás” fogalma nem veszített aktualitásából, hiszen a pénzügyi és hitelpiaci válság ma is ugyanazon kihívások elé állítja a gazdasági és az informatikai vezetőket, mint tíz évvel ezelőtt. Mindenekelőtt fel kell gyorsítani a növekedést, növelni a nyereséget és csökkenteni a költségeket, közben új termékeket tenni a vásárlók elé, így új ügyfeleket szerezni, valamint a gyártás hatékonyságát fejleszteni. Ezek a feladatok minden vezetőnek adottak, és eredményes megvalósításukhoz számos problémás tényezőt szem előtt kell tartaniuk.
Nincs idő gondolkodni
Különösen a B2C-ben, azaz a vállalat közönsége felé történő kommunikációjában bevett gyakorlat az információszerzés utáni azonnali adatelemzés és reflektálás. Arnold Picot, a Ludwig-Maximilians müncheni egyetem professzora szerint az információ megjelenése és a reakció közti időnek a lehető legkevesebbnek kell lennie a versenyképesség érdekében. Úgy véli, ez a németországi cégek körében csak részben megoldott a feladat, mivel képesek aktuális, real time adatokat beszerezni, ám az anyag átfogó elemzéséhez még nincsenek meg az eszközeik.
A valós idejű adatfeldolgozás, a gyorsaság lehetővé teszi egy vállalat irányítóinak, hogy egy újítás után azonnal visszajelzéseket kapjanak az üzleti struktúra piacképességéről, s ne csak akkor intézkedhessenek, amikor már késő lenne. Egyelőre úgy tűnik, az adatok céges felhasználása komplett szakmai gárdát igényel: a gyorsaság és az információk összegyűjtése, terjesztése önmagában megoldható, viszont az ezen alapuló döntéshozatal szakértelmet igényel. Nem kell majd a vállalat minden részlegének a real time szabályait követnie, megfontolandó, hogy mihez milyen adatok szükségesek; egyes folyamatokhoz elég ismerni az egy hónappal előbbi statisztikákat, valamihez viszont elengedhetetlen a friss adat; meg kell tanulni szelektálni - mondta Alexander Martin az A.T. Kearney-től.
Adatkiválasztás
A vállalatoknak tehát döntést kell hozniuk, mire szeretnének nagyobb figyelmet fordítani. Taktikájuk megválasztásánál szezonális szavazásokat írhatnak ki egy-egy árucikk népszerűségét kutatva, illetve a vásárlókkal operatívan együttműködve belőhetik az aktuálisan szükséges árumennyiséget (többé-kevésbé megoldott, ám fejleszthető). Stratégiai döntéshozatallal a piaci változásokhoz alkalmazkodhatnak: a BI-rendszer például prediktív analitikai módszerekkel döntéshozatali segítséget nyújt.
Sebastian Hetzler, a Tonbeller vezérigazgatója szerint is a legfontosabb, hogy az egyre bővülő adatmennyiségből hatékonyan válasszuk ki a releváns adatokat. Mint kifejtette, ebben a feladatban a hagyományos BI-rendszerek (Business Intelligence, BI) kevéssé használhatók, mert azokban az adatmennyiség az elsődleges szempont, ám anélkül, hogy tudnánk, pontosan mit keresünk, nem nyújtanak információt, nem is beszélve a kalkulációs hibákról. Hetzler számára információ az, aminek üzleti haszna van; szerinte az általánosan használt elemzés vagy riportkészítés nem elégséges a döntéshozatalnál, hanem ahhoz kimondottan e feladatra fejlesztett üzleti intelligencia (BI) és strukturált adattömeg szükséges.
Automatizálás
Andreas Hufenstuhl, a CSC üzleti analitikai vezetője a real time adatfeldolgozást csak akkor látja megvalósíthatónak, ha az elemzéskészítés és az adatfeldolgozás automatizált ‒ ez az óriási mennyiségű adat már túl nagy ahhoz, hogy emberek kezeljék. „Az automatizálás lehetősége még sok cégnél hiányzik, enélkül pedig nincs valós idejű elemzés” ‒ nyilatkozta Hufenstuhl.
Matthias Kaiserswerth, a németországi IBM kutatási osztályának igazgatója elmondta, hogy az automatizáció kiemelten fontos fejlesztési stratégiájukban: céljuk az üzleti folyamatok egyre kiterjedtebb önállósítása. Ezen a ponton az igazgató rögtön hozzátette, hogy káruk is származhat az átgondolatlan automatizálásból; érdemes már a fejlesztési stratégia felvázolásánál azzal számot vetni, mi szabályozható mesterségesen és mely feladatkörökhöz érdemes beosztottat alkalmazni. Sebastian Hetzler, a Tonbeller-direktor is kiemelten fontosnak látja az automatizációt, ám eközben elővigyázatosságra int: magabiztosan kijelentette, hogy a repülőjegyek árképzését már jó ideje egy e célra írt program végzi, mert ez a feladat elvégezhető algoritmusok segítségével, ám „a döntéshozatalt a vezetőség semmiképpen nem bízhatja számítógépekre”. Mindemellett az igazgató számít arra, hogy a valós idejű adatfeldolgozásból származó eredmények szimulációi segítik a döntéshozatalban.
Prediktív analitika
Az analitikai szoftverek innovációjában az elemzések és előrejelzések készítésére egyaránt alkalmas prediktív analitika tűnik az éllovasnak. Az IBM-es Kaiserswerth gyökeres változásokat prognosztizál a BI-rendszer, az üzleti intelligencia jövőjét illetően: „A jövőben a módszer annyira természetessé válik, hogy egyszerűen analitikaként emlegetik majd.” A CSC üzleti intelligenciájával foglalkozó Hufenstuhl hasonló folyamatokról számolt be, szerinte is a prediktív analitika irányába mozdul a webelemzés. Hetzler véleménye, hogy a jelen információi mindennél fontosabbak: „Világunk egyre gyorsabban változik, e folyamat magában foglalja a múltbéli információ értéktelenségét; a tegnap hírei csak olyan folyamatoknál értékesek, ahol megállt az idő.”
Big data
Hufenstuhl számára a real time adatfeldolgozásban csak másodlagos szerepet játszik a Business Intelligence, helyette a valós idejű big data azonnali strukturálása és elemzése az érdekes. A nagy adat az egyre változatosabb és részletesebb adattömeg tárolását, feldolgozását, elemzését jelenti. A CSC-igazgató szerint már most adott jó néhány lehetőség, amelyekkel eredményes adatelemzést végezhetünk - itt az óriási memóriakapacitású eszközöket és a felhő kínálta lehetőségeket emelte ki. Példaként említette az Oracle Exadatát vagy az IBM Netezzát. Véleménye szerint a felhasználókat az innovációban anyagi félelmeik korlátozzák, sokan arról beszélnek, hogy nem térülne meg a relatíve drága beruházás.
Kaiserwerth szerint az adattömeg feldolgozása új technológiát igényel: „A big data megszelídítéséhez új számítógépekre lesz szükség - az IBM egy teljesen új generációs processzorcsalád megépítésén dolgozik, amelyben az áramkörök az emberi agy neuronjaihoz hasonlóan működnek majd. - Az webanalízissel és üzleti intelligenciával foglalkozó szakember párhuzamként az asszociatív memória struktúráját hozta fel. - Ha meglátunk egy ismerőst, az agyunk nem egy adatbázisban kezd keresni, hanem rögtön felismeri az illetőt, ehhez hasonlóan azonnali kapcsolással működnek majd a jövő számítógépei.”
A big data egyediségének csak egy komponense a méret, legalább ennyire fontos típusának sokfélesége, ugyanis az adatdarabkákból áll össze ‒ internetes keresések, klikkelések, földrajzi adatok. A Teradata például adattárolási profiljával egyesítette az Aprimo integrált marketingmenedzsment rendszerét és az Aster Data adatelemző megoldását (e hónap elején bejelentette, hogy a német eCircle szoftvercéget is felvásárolja). A vezetők szerint ez a három terület elválaszthatatlan egymástól. Ez a fajta real time adatfeldolgozás alapfeltétele lehet a versenyben maradásnak, mivel csak így képesek a vállalatok aktuális információk és statisztikák szerint elemezni a vásárlási trendeket, lereagálni a folyamatosan változó piac igényeit. A Teradata legnagyobb vetélytársa az IBM lehet, a szintén matuzsálemi kort megért óriáscég 2010-ben vásárolta fel az Unicát és a Coremetricset; idén tavasszal pedig a Google is kijelentette, hogy beszáll a cloudalapú adatelemzésbe ‒ az ő esetükben az adathiány miatt pláne nem lesz ok az aggodalomra. Az elemzők állítják, hogy a big data lesz az IT-piac aranytojást tojó tyúkja, hovatovább ma már a rendszerbevezetések majdnem fele a marketing területén valósul meg.
BI-system
Még nem körvonalazódott, hogy hosszú távon milyen hatással lesznek a modern elemzési paradigmák a hagyományos üzleti intelligenciára és webanalitikára, a monolitikus adattárolási platformok ideje azonban letelni látszik. Az üzleti intelligencia minden bizonnyal hatékonyan segíthetne a döntéshozatalban, ha kiegészítenék egymást a big datával vagy más információfeldolgozós rendszerekkel. Volker Bay, az Accenture információs menedzsere határozottan kijelentette, hogy a mindentudó és minden adatot egyesítő Data Warehouses (DWs) építésére ma már nem túl nagy az igény. A CSC kutatóvezére, Hufenstuhl szemszögéből nézve sem illeszkedne a DW-féle adattárház a realtime-paradigmába. Az óriási mennyiségű strukturálatlan anyag egy merőben új adattárolási metódusért kiált; talán itt kínálkozik leginkább a felhőalapú IT alternatívája arra, hogy egy központilag menedzselt, bárhonnan elérhető virtuális névrendszert alakítsanak ki. Az informatika hőskorában meggyökeresedett gondolat, amely szerint a vállalati hálózaton belül minden adatnak egy ‒ rendkívül drága ‒ kiemelt adatbázis-kezelőben a helye, nemhogy fellazulni, talaját veszíteni látszik.