Exponenciálisan gyorsul a technológia fejlődése, és elsöprő erejű robbanással tágul a digitális univerzum. A szervezetek ilyen körülmények között nem engedhetik meg maguknak, hogy késlekedve szolgálják ki ügyfeleiket, lassan válaszoljanak a változásokra, és sokat pepecseljenek a fejlesztésekkel.
Éppen ellenkezőleg, az ügyfelek ma már egyre inkább valós idejű, személyre szabott interakciót várnak el a szervezetektől, sok esetben az önkiszolgálás lehetőségét, ami a másik oldalon nagy adatmennyiségből nyert, valós idejű betekintést és erre alapozott döntéshozatalt feltételez. Számos vállalat nehezen, vagy egyáltalán nem tud megfelelni ennek az elvárásnak, mert adatanarchiában él, adatvagyona különálló rendszerekben nő gyors ütemben, az emberi erőforrást azonban, amelynek információt kellene kinyernie az adatáradatból, nem tudja méretezni.
Minderről Oliver Ratzesberger, a Teradata alelnöke beszélt február végén, Bécsben, a cég Innovation Forum 2015 konferenciáján. A rendezvény a Teradata hagyománya szerint novemberben megtartott felhasználói fórumát váltja fel az idei évtől, és programjában az Integrated Data Warehouse mellett a szállító olyan big data és analitikai megoldásai is megjelennek, mint az Unified Data Architecture (UDA) és az Integrated Marketing Cloud.
Mindezekben a szegmensekben a Gartner évek óta a piacvezetők közé sorolja a Teradatát, ahogyan ezt a konferencia idején megjelent, legfrissebb értékelésében (2015 Magic Quadrant for Data Warehouse and Data Management Solutions for Analytic) is tette.
Az adatvezérlés útja
Tizenöt évvel ezelőtt az adattárházak voltak hivatottak mélyebb betekintéshez segíteni a vállalatok döntéshozóit, de működésük a mai körülmények között túlzottan bürokratikusnak és nehézkesnek minősül, mivel akár 18 hónapba is beletelik, mire az informatikusok elemzést szállítanak az üzleti oldalnak, és az információ addigra már elveszíti időszerűségét.
Az üzleti oldal gyakran azzal igyekszik áthidalni a problémát, hogy saját kezébe veszi az analitikát, beszerez magának valamilyen eszközt, amelyet az informatikusok nélkül is tud használni – így gyorsan elburjánzottak az adatpiacok, amelyekből egy-egy nagyvállalaton belül akár több száz is található. Mindennek következetlenség lett az eredménye, és megnőtt a nem kellő hozzáértéssel előkészített elemzéseken való félrecsúszás kockázata. Az adatok és elemzések összevetése, a félrevezető eredmények kiszűrése rendkívül erőforrás-igényes, a következmények elhárítása az idő 75 százalékát is felemésztheti, miközben az adatduplikálás mértéke a 100-szorosat is elérheti. Az adatpiacok üzemeltetése, emberigénye éppen ezért utóbb sokkal költségesebbnek bizonyul, mint amire a szervezetek eredetileg számítanak.
Olyan érettségi modellt és ütemtervet dolgozott ki ezért a Teradata, amelynek alapján a szervezetek célirányos fejlesztések öt szakaszán keresztül adatvezéreltté, tudatossá válhatnak, mondta nyitó előadásában Oliver Ratzesberger.
Kiindulásképp a vállalatnak agilissé kell tennie adattárházát. A virtuális adatpiacok, amelyeket immár adatlabornak nevezünk, az önkiszolgálás lehetőségével adják ezt meg az üzleti felhasználóknak. Az agilitás nélkülözhetetlen alapképesség, de csupán eszköz, az első lépés a megoldás felé. Fontos, hogy a vállalat a szabályozott irányítást (governance) is beleszője az önkiszolgáló adatlaborok működésébe, például előírja többek között azt is, hogy a virtuális erőforrásokat az üzleti felhasználók legfeljebb mennyi időre vehetik használatba.
Mindebben célszerű egyszerűségre törekedni, melyet rétegelt adatarchitektúrával tud megalapozni a vállalat.
Az eredeti adatstruktúrát megőrző adattó (data lake) képezi az alsó réteget, amelyre egyre finomabb adatmodellek hozzáadásával, adatintegrálással, -aggregációval és -prezentációval újabb rétegek épülnek, amelyek mindegyikéhez más csoportok – felhasználók, üzleti elemzők, fejlett felhasználók és adatkutatók – férnek hozzá. Következik ebből az is, hogy az agilitás elsősorban nem pénz, hanem folyamatok és emberek kérdése.
A következő három szakaszban a vállalatnak sorrendben olyan adatplatformokat kell bevezetnie – illetve kialakítania, mert nem kapható mindegyikük kész termékként –, amelyek a tranzakciók helyett az ügyfél viselkedésének és életciklusának elemzését, az elemzések körüli együttműködést, megosztást és közösségépítést, valamint a kapott eredmények üzleti betekintéssé alakítását segítik. Végül az ötödik szakaszban olyan eszközök és algoritmusok bevezetésére is szükség lesz, amelyek a vállalat egészében gyorsan megtalálják az elemzésekhez szükséges adatokat, mintegy tudatára ébresztve a szervezetet.
Sok vállalatnál az üzleti felhasználók ma akár az idő 90 százalékát is az adatok keresésével tölthetik, így döntéshozatalra csak 10 százalék marad. A Teradata érettségi modelljén végighaladó, adatvezéreltté váló szervezetek megfordíthatják ezt az arányt.
Analitikai ökoszisztéma
A 90-es évek óta sokat fejlődtek a szervezetek analitikai igényei, a felaprózott adatpiacokon és a vállalati szintű adattárházakon át a 2010-es évekre elérkeztünk a logikai adattárházakig, amelyek az összes adatot gyorsan, egyszerűen és hatékonyan elemezhetővé teszik. A logikai adattárház a Gartner meghatározása szerint a hagyományos adattárházak képességeit alternatív analitikai képességekkel és hozzáférési formákkal ötvözi. A piacelemző 2013-as felmérése szerint a vállalatok 54 százaléka vállalati szintű adattárházakra, 42 százaléka felhőalapú megoldásokra, 40 százaléka Hadoop technológiákra támaszkodik bigdata-projektjeiben, ami mutatja, hogy a hagyományos adattárházak továbbra is fontos szerepet töltenek be, de az analitikai ökoszisztéma jelentősen kibővül körülöttük.
– Fordulópontjához érkezett az adattárházak fejlődése – mondta Oliver Ratzesberger –, több adatforrás és adatbázis együttes elemzését, a valós idejű döntéshozatalt és a fejlesztőket is támogatniuk kell, hogy mindezt agilis módon bocsáthassák az üzleti oldal rendelkezésére, a lefúrás lehetőségével közvetlen hozzáférést adó műszerfalak, a párhuzamos elemzések és a hibrid, felhőalapú környezetek, az újfajta tárolók, sor- és oszlopalapú adattárolás, memórián belüli feldolgozás támogatásáról nem is szólva.
A Teradata az összefüggéseket feltáró Connection Analytics és az adatforrásokat összekapcsoló QueryGrid tavalyi bejelentését követően idén is új termékek sorával támogatja az adattárházak továbbfejlesztését.
Jelenleg zajlik a Teradata Database 15.10-es verziójának bétatesztelése, amely Oliver Ratzesberger szerint pusztán a frissítés eredményeként 13,5 százalékos teljesítménynövekedést hoz a vállalatnak. A Teradata Database 15.10 emellett még kiterjedtebb QueryGrid funkcionalitással segíti a több rendszeren átívelő elemzések megtervezését és hatékony lefuttatását, BSON-támogatással az IoT-alkalmazások kialakítását, többlakós (multi-tanancy) képességei pedig sok szervezeti egység, üzletág, ország együttes, mégis elkülönített kezelését is megkönnyíti egyetlen, szoftveresen meghatározott adattárházban.
Még az idei év első felében elérhetővé válnak az Aster AppCenter analitikai applikációi, amelyekkel a kódíráshoz nem értő üzleti felhasználók is összetett elemzéseket végezhetnek például az ügyfelek életciklusán keresztül gyűjtött adatokon, így azt is kideríthetik, hogy jellemzően milyen események, lépések előzik meg egy ügyfél elvesztését. Az AppCenter olyan sablonokat is kínál majd, amelyeket a Teradata tanácsadói gyorsan testre szabhatnak a vállalatok igényei szerint.
Oliver Ratzesberger azt is elmondta, hogy a QueryGridet, amely jelenleg az adatbázisba épített konnektorok készlete, a Teradata a jövőben önálló szoftverplatformmá fejleszti. A cég többek között a Clouderával és a MapR-rel kötött, partneri megállapodásokon keresztül még inkább kiszélesíti a nyílt forráskódú technológiák támogatását, és helyi adatközpontjain keresztül Európába hozza felhőszolgáltatásait.
Találkozás az adatkutatóval
Szeptemberben indul a budapesti székhelyű Közép-európai Egyetem és az IBM közös üzleti analitikai mesterképzése, amely kétéves előkészítő munkát követően a régióban elsőként adatkutatókkal fogja ellátni a munkaerőpiacot. A data scientist világviszonylatban is a legkeresettebb szakemberek közé tartozik. Chris Hillman ebben a szerepkörben dolgozik a Teradatánál.
– Korábban a kereskedelem területére szakosodott, elemzéseket és analitikai megoldásokat szállító IRI-nél dolgoztam, majd öt éve visszatértem az egyetemre, hogy az üzleti intelligencia területén folytassak posztgraduális tanulmányokat – mondta Chris Hillman. – Az adatbázis-tervezést és analitikát is felölelő képzést a Teradata támogatta. 2011-ben egy Hadoop-projekten szorosabban is együtt dolgozhattam a vállalattal, ezért amikor adatkutatókat keresett, én is megpályáztam a pozíciót.
Chris Hillman immár a Teradata színeiben részmunkaidőben tanít az egyetemen, míg a cégnél egy hatfős csoport tagjaként a házon belüli big data és analitikai igények kiszolgálását segíti Aster-szakértőként, pre-sales és más területeken.
– A formálisan képzett adatkutató ma még ritkaságszámba megy, a szerepkör formálódik, de azt hiszem, betöltéséhez inkább megfelelő látásmód, semmint adott képesítés szükséges – mondta Chris Hillman. – Az adatkutató nem tud feltétlenül statisztikai modelleket készíteni hétről hétre, de megmondja, hogy a vállalatnak milyen adatokat érdemes elemeznie, hogy értékes üzleti betekintéshez jusson. Ilyen szakembereket a legtöbb nagyvállalat talál saját analitikai csapatában, csak meg kell adnia számukra a kellő támogatást, hogy továbbképezzék magukat.
Több feladatkörre oszlik majd a továbbiakban az adatkutató szerepe Chris Hillman szerint, erre utal az is, hogy az adatkutató mellett már most megjelent az adatokat szállító rendszerekre, architektúrákra és platformokra szakosodó adatmérnök.