Agilitás és megfelelés egymással ütköző igényétől vezérelve a vállalatoknak mérlegelniük kell, hogy offenzív vagy defenzív stratégiát szükséges inkább követniük, mert támadók és védekezők is nem lehetnek egyszerre - mondta Arató Bence, a BI Consulting ügyvezetője a cég idei Budapest Data Fórum konferenciáján tartott előadásában. A defenzív stratégia elsősorban az adatbiztonságra, a személyes információk védelmére, az integritásra, a minőségre és a törvényi megfelelésre törekszik, és olyan területekre összpontosít, mint az adatok kinyerése, szabványosítása, tárolása és elérése. Ezzel szemben az offenzív stratégia fő célja a vállalat versenyképességének és nyereségének növelése analitikai, adatmodellező, -vizualizáló, -transzformáló és -dúsító eszközök alkalmazásával.
Előbbi adatmenedzsment megközelítése a szabályozásra és ellenőrzésre, utóbbié a rugalmasságra helyezi a hangsúlyt - mondta Arató Bence a Harvard Business Review cikkére (What's your data strategy?, 2017. május-június) hivatkozva. Választani kell a kettő közül, mert ma már aligha engedheti meg magának egy vállalat, hogy céltudatos stratégia nélkül, csak úgy adatokat gyűjtögessen, hátha jók lesznek még valamire. Nemcsak költséges, hanem igen kockázatos mulatság lenne ez, az adatok kezelése ugyanis mind nagyobb felelősség az egyre fokozódó kiberfenyegetések és a mulasztásokat sújtó tetemes bírságok árnyékában.
Idén is műhelyfoglalkozások, előadások, kerekasztalok és demók gazdag kínálatából választhattak az adatokkal dolgozó - adattárházakkal, bigdata-technológiákkal és adatkutatással foglalkozó - szakemberek az immár 10. alkalommal megrendezett háromnapos konferencián, amely június közepén több mint 290 résztvevőt vonzott. A technológiai trendek, népszerű és feljövő eszközök, esettanulmányok és a megkerülhetetlen GDPR témaválasztéka mellett a Budapest Data Fórum programjában most is helyet kapott a toborzás és a karrierépítés.
Hadoop-fordulat
Három év alatt több mint háromszorosára - a 2015-ös 17 százalékról tavaly már 53 százalékra - nőtt a bigdata-technológiákat használó vállalatok aránya a Dresner Advisory Services felmérése (Big Data Analytics Market Study, 2017) szerint, mondta Arató Bence. Eközben a nagy, gyorsan változó és változatos formátumú adattömegek kezelésére és feldolgozására szolgáló technológiák használatát még csak nem is tervező vállalatok aránya kevesebb mint harmadára zsugorodott, a múlt évben 11 százalékon állt. A megkérdezett vállalatok további 36 százaléka pedig úgy nyilatkozott, hogy a jövőben várhatóan használni fog ilyen megoldásokat. Más szóval a big datával a gyakorlatban vagy tervek szintjén tízből már közel kilenc vállalat foglalkozik.
Óriási lehetőség ez a szállítóknak, amit a kínálati oldalon kibontakozó sokszínűség és versengés is tükröz. A Gartner februárban közreadott mágikus négyzete (Magic Quadrant for Data Management Solutions for Analytics, 2018) szerint az analitikai adatmenedzsment-megoldások piacát olyan szereplők vezetik, mint az Oracle, az Amazon Web Services, a Microsoft, a Teradata, az IBM és az SAP, míg a Cloudera, a MapR Technologies, a MicroFocus, a Hortonworks és a Pivotal a réspiacokon jeleskedik, a Google pedig a terület látnokaként jövőbe mutató fejlesztéseivel került fel a térképre.
Blogbejegyzésében (Where's Hadoop?) a Gartner arra is rámutatott, a Hadoop disztribúciók életében 2017 legnagyobb sztorija az volt, hogy már egyetlen piaci szereplő sem akar disztribútornak látszani. A korábbi bajnokok átpozícionálják magukat, és a technológiát egyre inkább alkalmazásszintű megoldásokba csomagolva kínálják. Ezt tükrözi a Cloudera palettáján megjelenő Enterprise Data Hub és Analytic DB, valamint a Hortonworks kínálatát gazdagító DataPlane is. Hasonló irányban finomítja stratégiáját a MapR, az Amazon és a Google is, míg az IBM Open Platformjának kivezetésével kiszállt a disztribúciós üzletből, és helyette együttműködésre lépett a Hortonworksszel.
Persze a szállítók továbbra is kínálják Hadoop disztribúcióikat, de - mint minden beérő piacon - a technológia helyett ügyfeleikkel mindinkább az üzleti problémákról kell párbeszédet folytatniuk, amelyekre azok megoldást keresnek. A Cloudera ehhez például tavaly szeptemberben felvásárolta a Fast Forward Labs tanácsadó startup céget, amely az adatkutatás és a gépi tanulás terén segíti a vállalatokat a projektek gyorsabb és eredményesebb megvalósításában.
A Hadoop disztribútorok ennek megfelelően mindinkább alkotóelemeire bontják a szoftver stacket, azokat más Apache projektekből átvett, illetve harmadik féltől származó komponensekkel kombinálják, hogy saját csomagjaikat összeállítva újabb bevételforrásokra találjanak a piacon. A keresleti oldalon is nő eközben a variációs kedv. A Qubole jelentése (2018 Big Data Activation Report) szerint 2016-ban a vállalatok 66,1 százaléka használt egyszerre több nyílt forráskódú bigdata-motort, tavaly azonban már a megkérdezettek több mint háromnegyede (75,9 százaléka) mondta ugyanezt. A legnépszerűbb elemzőmotorok közé tartozik az Apache Spark, az Apache Hadoop/Hive és a Presto - utóbbi használata a januárt megelőző év folyamán szédítő 420 százalékkal nőtt.
A g-s betűszó
Ha adat, akkor mesterséges intelligencia - bár üzleti alkalmazását tekintve ma még inkább ígéret, mint gyakorlat, kétségtelenül ez a szoftvertechnológia leglátványosabban fejlődő területe, amely hardveroldalon is erősen érezteti hatását.
Az OpenAI non-profit szervezet - amelyet Elon Musk alapított az emberbarát mesterséges intelligencia fejlesztésének támogatására - májusi elemzésében megállapította, hogy a legnagyobb projekteket alapul véve az AI tanítására használt számítási kapacitás 2012-höz képest mára háromszázezerszeresére nőtt, vagyis ebben az időszakban 3,5 havonta megduplázódott. Összehasonlításképp Moore törvénye szerint a processzorteljesítmény megkétszerezése viszont 18 hónapba telik. Minthogy a feldolgozási kapacitás növekedése kulcsszerepet játszott a mesterséges intelligencia fejlődésében, és az is egyértelmű, hogy az AI technológia hamar kinövi a hardver mostani korlátait, a jövőben a meglévő rendszerek képességeit messze felülmúló megoldásokra lesz szükség a sikertörténet folytatásához.
Legalább 45 startup dolgozik kimondottan AI-alkalmazások futtatására kihegyezett processzorok fejlesztésén a New York Times januári cikke (Big Bets on A.I. Open a New Frontier for Chip Start-Ups, Too), amelyekbe a kockázatitőke-befektetők tavaly 1,5 milliárd dollárt helyeztek, kétszer annyit, mint két évvel korábban.
Aranyláz idején ásót kell árulni - fogalmazott előadásában Arató Bence. Alátámasztja ezt a grafikus processzorokat (GPU-k) szállító NVIDIA részvényárfolyamának felívelése is. Míg 2012 előtt ritkaságszámba ment a GPU-k használata a gépi tanulás és a mesterséges intelligencia területén, 2014 és 2016 között egyre gyakoribbá vált, ma pedig teljesen megszokott. Az NVIDIA papírjainak értéke többéves stagnálás után éppen 2016-ban kezdett nőni, és mára az egekbe szökött. De speciális processzort fejlesztett már a Google (TPU), a Fujitsu (Digital Annealer), és tavaly bejelentett Power9 processzorát az IBM is a mesterséges intelligencia és a gépi tanulás szolgálatába állította.
Három-öt éve dolgoznak bigdata-projekteken a hazai nagyvállalatok - derült ki a konferencián megtartott Hungarian Big Data Cluster kerekasztal-beszélgetésen. A legtöbb processzort (320-at) az IBM Budapest Lab, a legnagyobb memóriát (4500 terabájtot) a Magyar Telekom pakolta eddig bigdata-klaszterébe, a legtöbb adatot (több mint 1 petabájtot) pedig a Prezi kezeli benne. Jellemzően nem a meglévő adattárház kiváltására épültek ezek a klaszterek, hanem annak kiegészítésére, és többféle analitikai motor működik bennük.
A GDPR RÉME
Sötét árnyként lebegett a hazai vállalatok feje felett is a múlt hónapban életbe lépett európai uniós Általános Adatvédelmi Rendelet, a GDPR, amelyet - a mesterséges intelligenciához hasonlóan - számos félreértés és mítosz övez. Lemérhető volt ez a hibáktól hemzsegő értesítéseken is, amelyekkel a vállalatok a május 25-ét megelőző napokban elárasztották ügyfeleik postaládáját - mondta Jóri András, a dataprotection.eu Kft. ügyvédje, volt adatvédelmi biztos, aki előadásában felvázolta a lépéseket, amelyeken keresztül a vállalatok elérhetik és fenntarthatják a GDPR-megfelelést. A tanácsok változatlanul időszerűek, mert elemzői vélemények szerint a vállalatok jelentős része nem vagy rosszul készült fel a törvényi változásra, így ez a téma megkerülhetetlen lesz a jövő évi Budapest Data Fórumon is.