Huszonegy országon át vezető út végén Rainer Zietlow, Marius Biela és Sam Roach szeptember 20-án 14:00 órakor ért célba Európa legészakibb pontján. A 19 ezer kilométeres távot a dél-afrikai Fokvárosból startoló csapat egy Volkswagen Touareg négykerék-meghajtású terepjáróval tette meg 9 nap, 4 óra és 8 perc alatt, amivel világcsúcsot állított fel.
Maga a VW Touareg sem egy hétköznapi járgány, sokkal inkább egy szenzorokkal behálózott, egyszerre többféle - vezetékes és vezeték nélküli - hálózati kapcsolaton keresztül kommunikáló, négy keréken guruló adatközpont, amelyet a Cape2Cape 2.0 Challenge túrát meghirdető HP, valamint az Intel, az Inmarsat és más, érzékelőgyártó, illetve távközlési cégek technológiai megoldásaival szereltek fel. További érdekesség, hogy a VW Touareg motorja Magyarországon készült, de Zietlow szerint nem érintett a kibocsátásteszt-manipulációs botrányban.
A túra kilenc napja során a terepjáróra és vezetőire szerelt szenzorok 350 gigabájt adatot gyűjtöttek, amelyeket folyamatos hálózati kapcsolaton keresztül a HP Helion felhőjébe továbbítottak elemzésre, majd az így nyert információkat - más forrásokból, például közösségi hálókról, weboldalakról nyert, közlekedés szempontjából releváns információkkal együtt - egy úgynevezett eseményműszerfalon keresztül a VW Touareg fedélzetén is elérhetővé tették. A csapat tagjai így valós idejű adatok alapján, menet közben optimalizálhatták a vezetés stratégiáját.
Czibók Zoltán, a HP Informatikai Kft. vezérigazgató-helyettese a konferencián elmondta, hogy a Cape2Cape Challenge túra a világcsúcs mellett értékes tapasztalatokkal szolgált, amelyekre használati esetek építhetők a hálózatba kapcsolt okosjárművek, az analitika, a kommunikáció és a biztonság területén.
Az említett műszerfal és a folyamatos - wifi, Bluetooth, 3/4G GSM és műholdas - kapcsolatot tartó hálózati hub mellett okosautókban kerülhet felhasználásra a hírszerző modul is. Menet közben ez a modul információkat gyűjtött a híroldalakról és közösségi hálókról, hogy a szövegelemzés eszközeivel olyan körülményeket, potenciálisan bekövetkező eseményeket azonosítson, amelyek veszélyeztethetik az előrehaladást. A szenzorokkal ellátott járművek a kormányzatok, közútfenntartók számára is értékes információkkal szolgálhatnak az utak állapotát illetően. A meglévő képi, térképalapú és GPS-információkkal összevetve ezek az aktuális állapotot tükröző adatok segíthetik a kátyúk azonosítását, az útjavítás és általában a beruházások tervezését.
Hasonló módon a gépkocsi vezetője által viselt szenzorokról érkező adatok az egészségi állapot monitorozása mellett a vezetés stílusának - például fáradtság miatt bekövetkező - változásaira figyelmeztethetnek, és segíthetnek a vezetőtípusok azonosításában, az autóhasználati szokások felmérésében. Mindez hasznos információkkal szolgálhat a vezetőtámogató rendszerek fejlesztőinek, az autókölcsönzőknek, a szállítmányozó vállalatoknak és a biztosítóknak is.
Emberi és szervezeti tényezők
Zietlow csapatának vendégszereplésével a HP kézzelfoghatóan demonstrálta, hogy a dolgok internete (IoT), a szenzor-, a hálózati és az analitikai technológiák fejlődése milyen távlatokat nyit számos iparág szereplői előtt. Az International Data Corporation (IDC) is arra számít, hogy a következő években a szervezetek versenyképességük megőrzése, illetve erősítése érdekében egyre többet költenek majd IoT és BDA (nagyadat-jellegű analitikai) megoldásokra. A piacelemző előrejelzése szerint 2020-ra az internetre csatlakozó dolgok darabszáma meghaladja majd a 29,5 milliárdot, a szállítók árbevétele pedig az 1,7 trillió (ezermilliárd) dollárt.
Valóban működő, értéket adó analitikai projektekhez és megoldásokhoz azonban a technológiánál több kell, mondta Koren Miklós, a Közép-európai Egyetem (CEU) docense, aki - a konferencia házigazdájaként - az emberi és szervezeti tényezők szerepével foglalkozott előadásában.
A CEU az IBM Magyarországgal közösen idén - Európában másodikként - adatkutatói (pontos nevén Master of Science in Business Analytics) szakot indított MSc képzésben. A hallgatók az üzleti célú adathasznosítás technológiáit, valamint azokat a lehetőségeket ismerhetik meg a mesterképzés során, amelyeket a bigdata-jellegű analitika a közigazgatásban, városfejlesztésben és más területeken kínál. A tanterv elsősorban az adatelemzési és technológiai kompetenciákra összpontosít. Kiemelt tárgy az üzleti intelligencia, de a hallgatók többek között adatvizualizációt, hálózattudományt is tanulnak, adatbiztonsági, közgazdasági, statisztikai és menedzsmentismereteket szereznek.
Jól érzékelteti a képzés felépítése az adatkutatás interdiszciplináris jellegét. A vállalati analitikai projektek sikeres megvalósításához, a bevezetett eszközök eredményes használatához sokféle adottság és kompetencia együttállása szükséges, éppen ezért a terület nem szűkölködik személyes és szervezeti kihívásokban.
Sok vállalat az adatok előkészítését például időveszteségként éli meg, átsiklik a felett, hogy a munkának ebben a szakaszában is rengeteget lehet tanulni. Gondot okoz továbbá, hogy a vállalatok nem teszik megismételhetővé a műveleteket és a folyamatokat, tudásukat így képtelenek újrahasznosítani, ezért minden analitikai projektet az alapoktól kell kezdeniük. A keresett adatokat sem könnyű megtalálni ebben a környezetben, nincs séma, amely segíthetné a munkát, a tudás szájhagyomány útján terjed, így a kilépő kollégákat is nehéz pótolni.
Másfelől az analitikai kezdeményezések jelenlegi tapasztalatai azt is mutatják, hogy a geek vénával bíró elemzők a szervezetre nem várva, szakmai érdeklődéstől hajtva megtanulják a hasznos, nyílt forráskódú eszközök használatát. Rövidtávon nyer velük a vállalat, de ezek az elemzők általában sikeresebbek a területükön, mint kevésbé agilis társaik, így könnyebben tovább is állhatnak a cégtől, és akkor a megszerzett tudás is velük megy.
Szerencsés lenne éppen ezért, ha a közeljövőben több egyetem indítana adatkutató szakot, és sokoldalúan képzett, kész szakembereket adna a munkaerőpiacnak.
Technológiák feljövőben
De térjünk vissza az újgenerációs analitikai eszközökhöz és technológiákhoz, mivel ezek használatában is bőven van még hová fejlődniük a hazai szervezeteknek.
Bischof Géza, az InfomatiX üzleti elemzője és Prekopcsák Zoltán, a RapidMiner budapesti irodájának vezetője a konferencián jelentette be a két cég friss együttműködését. Az adatforrások sokasága és sokszínűsége, valamint az analitikai igények fejlődése folytán a szervezetek ma már olyan eszközöket keresnek, amelyek könnyen, önkiszolgáló módon használhatók, és egyúttal jól menedzselhetők.
Az InfomatiX ilyen megoldást kínál a nyílt forráskódú RapidMiner platform, különböző adatforrások és olyan adatvizualizációs BI-eszközök összekapcsolásával, mint a Tableau, a Qlik és a Spotfire. Bischof Géza egy demóban bemutatta, hogy az így felépített analitikai megoldás használatához csupán folyamatszemlélet szükséges. A felhasználó elgondolja, miként kívánja felépíteni adatforrásait, és milyen elemzéseket, vizualizációkat szeretne, majd grafikus kezelőfelületen, húzd és ejtsd módszerrel egyszerűen összerakja a teljes analitikai folyamatot.
Oláh Attila, az Esri Hungary ügyvezető igazgatója látványosan mutatta be előadásában a nagy adat és a térinformatika találkozását. A cég BusinessMap megoldásával a különböző forrásokból származó adatkészletek elemzése digitális térképeken jeleníthető meg. A konferencia közönsége láthatta például, miként választható ki a legjobb lokáció Budapesten egy frissen facsart gyümölcsleveket árusító üzlet számára, miként fejthető meg egy barkácsáruház hullámzó teljesítményű promócióinak titka, és egy bankfióknak mely vállalkozásokat érdemes célzottan megszólítania 5 perces gyalogos megközelítési körzetén belül.
Tilesch Ferenc, a LogDrill szakértője a cég Fujitsuval közösen kifejlesztett PetaPylon analitikai készülékének képességeit demonstrálta. Az appliance az intelligens, szoftveres tömörítéstől kezdve a hardveres gyorsításon át a párhuzamos feldolgozásig mindent bevet a naplófájlok és más, nagy adathalmazok gyors elemzése érdekében. A konferencián látott demóban a PetaPylon egy 132 millió adatrekordot tartalmazó adatbázison másodperces reakcióidővel futtatta le az elemzéseket.
Berényi Attila, a HumanoIT értékesítési és marketingigazgatója szerint a nagyvállalatoknak érdemes a nyílt forráskódú OpenStack szoftverekben rejlő lehetőségeket is mérlegelniük, amikor big data és analitikai stratégiájukat formálják.
Az OpenStack szabványos hardveren futó absztrakciós réteg szoftveresen meghatározott adatközpont-infrastruktúra kialakításához, amelyen hagyományos és modern alkalmazások is működtethetők. Bár alig több, mint négy éve indult az OpenStack projekt, hogy kifejlessze a világ vezető, nyílt forráskódú felhő operációs rendszerét, a közösség munkája gyors elismerésre talált. A felhasználók ugyanis nagyra értékelik az innováció és a költségcsökkentés együttes lehetőségét, amelyet ez a környezet kínál. Lemérhető ez azon is, hogy tavaly már a vállalatoknál indított OpenStack projektek 46 százaléka eljutott az éles üzem szakaszába.
Magyarországon a szervezetek ma még inkább tesztkörnyezetekhez használják az OpenStacket, de az analitikai és a katasztrófaelhárító környezetek is mindinkább számításba jönnek. A költségcsökkentés lehetősége Berényi Attila szerint itt még jóval kisebb, mint a core-rendszerek futtatásánál, ahol az OpenStackkel a vállalatok egy 120 szerveres környezetben évente akár 11 millió forintot is megtakaríthatnak a beruházási és az üzemeltetési költségeken.