Hirdetés
. Hirdetés

Budapest Data Fórum 2020: felhősebb égen

|

Időbe telt, mire a hazai nagyvállalatok is nyitottak a felhőalapú adatplatformok irányába, de az idei végre a fordulat éve lett, hangzott el a Budapest Data Fórumon. Elszánt lépésével a startupok után ugyanakkor ez a cégkör is egy rendkívül mozgalmas, sokszereplős piacon találta magát, ahol a gyorsan fejlődő technológiák és folyton átalakuló szállítóik között nem könnyű eligazodni.

Hirdetés

A bigdata-trendeket és a modern adatplatform képességeit áttekintő nyitóelőadásaiban ehhez adott segítséget Arató Bence, a háromnapos konferenciát idén először hibrid formában - személyes részvétel mellett zajló és digitális eseményként - megtartó BI Consulting igazgatója. Bár önmagában véve a big data immár öt éve folyamatosan veszít vonzerejéből, ez elsősorban a hívószó kopását mutatja, mert a technológia relevánsabb, mint valaha, csak mostanra kicsit mást értünk alatta, mondta az igazgató. Az adatkészletek kétségtelenül nagy mérete, változatossága és gyorsasága ugyan ma már senkit sem hoz lázba, de kit ne foglalkoztatnának a fejlett, előrejelző analitikai képességek, amelyek bigdata-technológiákra épülnek?

Hirdetés

Tükrözi ezt a Dresner Advisory Services felmérése (Big Data Analytics Market Study 2019) is, amely szerint tavaly már csupán a vállalatok 30 százaléka minősítette üzletkritikusnak, további mintegy 52 százalékuk pedig fontosnak vagy nagyon fontosnak a nagy adatot. A tanulmány ugyanakkor azt is megállapította, hogy a technológia legelterjedtebb használati esetei milyen fontosak a vállalatok életében: a big data szerepét a válaszadók többsége (80 százaléka) az adattárházak optimalizálásában és az előrejelzésben, az ügyfélkapcsolatok és -reakciók elemzésében, valamint a hibamegelőző karbantartásban (70 százalék), továbbá a csalásészlelésben és a dolgok internetére épülő alkalmazásokban (60 százalék) is kritikusnak vagy (nagyon) fontosnak értékelte.

Összecseng ezzel a Google-keresésekből kirajzolódó trend is, amely mutatja, hogy a felhasználók már nem a nagy adatra, hanem sokkal inkább adatkutatásra, gépi tanulásra és dolgok internetére keresnek rá, vagyis az alapul szolgáló technológia helyett elsősorban az érdekli őket, hogy azzal miként szolgálhatják ki az üzlet időszerű igényeit. A bigdata- és analitikai megoldások piaca éppen ezért köszöni szépen, továbbra is jól van, az IDC előrejelzése (Worldwide Big Data and Business Analytics Solutions Forecast, 2019) szerint mérete 2022-re eléri a 274,3 milliárd dollárt, ami a megelőző öt évre vetítve évente átlagosan 13,2 százalékos, egészséges ütemű bővülésnek felel meg.

Snowflake, a nehézbombázó hópehely

Jóllehet a hazai nagyvállalatok egészen a közelmúltig pár kivételtől eltekintve még akkor is lemondtak a felhőalapú adatplatformok alkalmazásáról - a törvényi megfeleléssel összefüggő aggályok miatt vagy más okból -, ha üzleti igényeik nem a házon belüli bevezetést indokolták volna, a jég idén végre megtört, mondta Arató Bence. A Gartner idei évre adott trendelemzésében (Top 10 Trends in Data and Analytics, 2020) a felhőt az adatok és az analitikai megoldások adott, evidens környezetének nevezi (lásd erről A műszerfalaknak befellegzett című cikkünket a Computerworld 2020/18-as lapszámában), és ez most már a hazai adatpiacról is sokkal inkább elmondható, mint az eddigiekben.

A fordulat következtében a hazai nagyvállalatok is az adatfelügyeleti és -analitikai platformok és eszközök szinte áttekinthetetlenül népes piacáról választhatnak maguknak megfelelő partnert és megoldást, amit aligha könnyít meg, hogy a technológiákhoz hasonlóan a szállítói mezőny is folyamatosan fejlődik és átalakul.

Jól követhetők a változások a Gartner mágikus négyzetében (Magic Quadrant for Data Management Solutions for Analytics, 2019), amelyben a piacot hagyományosan vezető nagyok (Oracle, Microsoft, Teradata, SAP és IBM) mellé tavaly új szereplők (Amazon Web Services, Google, Snowflake) kerültek az élbolyba felhőalapú adatplatformjukkal, míg a big data korábbi üdvöskéi, a Cloudera, a Hortonworks és a MapR Technologies a réspiaci szereplők táborába szorultak a Micro Focus, a Pivotal, a Huawei, az Alibaba Cloud és mások mellé.

Minthogy a vállalatok egyre több adatforrásból mind több adatot elemeznek mind több felhasználó szerteágazó analitikai igényeinek kiszolgálására, olyan modern adatplatformra van szükségük, amellyel ezt többfelhős és hibrid környezetben, nagy teljesítménnyel és rugalmas méretezhetőséggel, mégis költséghatékonyan megoldhatják. A titok nyitja a feldolgozás és a tárolás különválasztása, és a Snowflake felhőalapú, egyedi architektúrára, valamint új SQL motorra épülő, SaaS modellben elérhető analitikai adattárháza - bár házon belül bevezethető változata egyelőre nincs - ezt olyan jól csinálja, hogy az a befektetők figyelmét sem kerüli el.

Az Oracle-től kilépő szakemberek által 2012-ben alapított kaliforniai cég nevére rácáfolva korántsem pehelysúlyú, a tőkebevonásoktól és felvásárlásoktól zajos piacon pénzmágnesként is kitűnik: a két évvel ezelőtti 263 millió dolláros injekció után tavaly újabb 450 millió dollárt kapott. Bár tőkebevonása összességében így meghaladta a 900 millió dollárt, idén februárban újabb 479 millió dollárral növelte az összeget, és ebben már az üzleti partner Salesforce is benne volt új befektetőként. Sokan számítanak ezért arra, hogy a Salesforce előbb-utóbb felvásárolja a Snowfalke-et, hogy Einstein analitikai és AI portfóliójában a tavaly már megszerzett Tableau-val és más csúcstechnológiákkal ötvözze - elvégre egyedül a múlt évben 12 céget akvirált erről a területről. A Snowflake így aztán szeptember 16-án, amikor tőzsdére lépett, nagyot robbantott, az eredeti kibocsátásban 120 dolláros részvényeinek árfolyama egy napon belül több mint a duplájára, 250 dollár fölé emelkedett, és ezzel a kilövéssel tőzsdetörténelmet írt. A cég piaci értéke 70 milliárd dollár fölött jár, holott februárban a tőkebefektetők még rongyos 12,4 milliárd dollárra taksálták.

Nem tétlenkedik eközben az élmezőny többi szereplője sem. A tavaly januárban egyesülő Cloudera és Hortonworks az összeolvadással járó lassulás után ismét mozgásba lendült, és múlt szeptemberben a többfelhős hibrid környezetekre termett Cloudera Data Platform mellett az AI-alapú analitikai és BI-platformot szállító Arcadia Data felvásárlását is bejelentette. Az adatok feldolgozását és tárolását választja külön ugyanilyen környezetekben a Microsoft tavaly novemberben bejelentett Azure Synapse Analytics platformja (lásd Cloud: nagyívű felhőfelügyelet című cikkünket a Computerworld 2020/01. lapszámában), és ebbe az irányba mutat az Amazon Redshift utóbbi két évben debütáló több mint kétszáz fejlesztése, a Google idén júliusban bejelentett BigQuery Omni többfelhős analitikai megoldása, valamint a szintén nyáron bemutatott Oracle Cloud Dedicated Cloud Region, amely a cég nyilvános felhőjét és önvezérlő adatplatformját a vállalatok házon belüli adatközpontjába viszi (lásd Önvezérlő IT: nyilvános felhő a házban című cikkünket a Computerworld 2020/15. lapszámában).

Adatplatform korszerűen

A felhőalapú adatplatformok korántsem egyszerű összehasonlítását igyekszik megkönnyíteni szállítófüggetlen tesztjeivel (2020 Data Warehouse Benchmark) a Fivetran, bár ezekből kitűnik, hogy a vezető megoldások mindegyike igen jól teljesít. Beruházás előkészítésekor ezért a vállalatnak mindig figyelembe kell vennie, hogy leendő adatplatformjával milyen használati eseteket támogatna. A mérlegeléshez hasznos segítséget ad a Gartner elemzése (2019 Critical Capabilities for Data Management Solutions for Analytics), amely a leggyakoribb használati esetek szerint is kiértékeli az adatplatformok nélkülözhetetlen képességeit, mondta Arató Bence, aki a konferencia második napján tartott előadásában ezekről részletesebb áttekintést adott.

Három fő tulajdonságánál fogva számít ma modernnek egy adatplatform. Hatékony, mivel szétválasztja az adatok tárolását és feldolgozását, univerzális, mert bármely felhőben fut és házon belül is bevezethető, valamint a tárolástól kezdve a feldolgozáson, transzformáción és vezérlésen át a metaadat-kezelésig minden rétgében a legtöbb komponens nyílt forráskódú.

A metaadat-kezelés szerepét a konferencián előadó hazai nagyvállalatok is hangsúlyozták, amelyek akár 120-nál több adatforrást használnak, és azokban esetenként tíznél is több adattípust kezelnek. Előfordul ezért, hogy a digitális gazdaság óriásai saját metaadat-kezelő megoldást fejlesztenek, és közülük kettő, a LinkedIn DataHubja, valamint a Lyft Amundsene, a Datakin vezetésével zajló nyílt forráskódú Marquez projekttel együtt a konferencián is bemutatkozott. A Budapest Data Fórum metaadat-szuperszekciója maga is nyílt volt, az előadásokat külön regisztráció mellett minden érdeklődő ingyenesen követhette.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.