Edge 2.0 – ugrás a tegnapból rögtön a holnapba
Ez a cikk egy három részből álló cikksorozat második epizódja. A sorozat cikkei:
1. rész: Bevezető (ez a cikk)
2. rész: Történelmi áttekintés
3. rész: Az új generáció – hamarosan érkezik
1. rész: Bevezető
Az elmúlt pár évben fenekestül fordult fel az IT. Számtalan katalizátora volt ennek a hihetetlen mértékű változáscunaminak. Említhetjük a Moore-törvényt (a számítógépek adatfeldolgozási teljesítménye minden 18 hónapban a kétszeresére nő), ami talán az egyik legfontosabb alapvetés a szakmánkban. De a teljesség igénye nélkül biztosan közrejátszott
- a konténerizáció és orkesztráció megjelenése
- a monolitikus alkalmazásokat őrült tempóban felváltó microservice alapú szemlélet elterjedése
- az Ipar X.0 bevezetése | {3 ≤ X ≥ 4}
- az YG hálózatok fejlődése | {4 ≤ Y ≥ 5}
- az Agile és ZOps szemléletek alkalmazása | {Z: Net, Sec, NetSec, Dev, SuperNet, DBA, … ∞}
- a felhőrendszerek, s ezekkel együtt a mindenféle aaS (as a Service) megoldások térnyerése
- a pandémiás helyzet kényszerűségeire szükségszerűen adandó válaszok
és még egy csomó elemi vagy közösségi szintű fejlesztés, hazai vagy nemzetközi színtéren megjelenő szabályozás is. Na, és persze ne feledkezzünk meg a közösségi média és a rengeteg „connected” eszköz térhódításáról sem, és arról a most már szinte alapvető emberi igényről, hogy mindig mindent meg kell osztani, adatot vagy információt kell közölni és folyamatosan (értsd: gyakorlatilag valós időben) tájékoztatva, informálva kell lenni.
Ez a számtalan tényező többek között odáig vezetett, hogy
- a pandémia miatt a vállalatok infrastruktúráit ki kellett nyitni, ki kellett terjeszteni, azonban ehhez újfajta biztonsági megfontolásokra van szükség
- míg az alkalmazások elérése az egekbe szökött, azok átlagos életciklusa drasztikusan lerövidült
- vannak vállalatok, melyek naponta több ezerszer (ízlelgessük ezt egy picit…) változtatnak az ügyfelek által aktívan használt alkalmazásokon (rilízelnek) – teszik ezt leállás vagy kiesés nélkül
- a széles körben elérhetővé vált szolgáltatások (pl. open banking, home office, B2B-B2C rendszerek, stb.) fokozott terhelést jelentenek a korábban már bevált infrastruktúráknak (ami a felhasználói élmény romlásához vezethet) illetve szélesebb támadási felületet eredményeznek (ami éppen a cégek legnagyobb vagyonát, az alkalmazásaikat és az azok által kezelt adatokat veszélyezteti)
- a felhasználók számára publikálni kívánt állományok gyorsabb elérhetőségére CDN (Content Delivery Network) megoldásokat kezdtek el használni, de a felhasználók által feltölteni szándékozott adat növekvő mennyisége és a jogszabályi környezet miatt már nem elég kizárólag a disztributált adatok optimális elérésére gondolnunk, szükséges a bejövő adatok anonimizálását / transzport előtti szűrését / (elő)feldolgozását / kollerálását / kivonatolását / mintavételezését is megoldanunk az ilyen adatok keletkezéséhez vagy az adatok felhasználásához minél közelebb
Az előbbiekben felsorolt kihívások egy részére a szakma az Edge Computing szemlélettel kereste a választ.
És akkor itt rögtön álljunk is meg egy pillanatra. Mit is értünk Edge Computing alatt?!
Ha beütjük a keresőbe, számos – a világ nagy neveitől (pl. The Linux Foundation, Wikipedia, F5, IDC, Gartner, Red Hat, Intel, Stratus, Cloudflare, Ericsson, Cisco, Microsoft, IBM, HPE) származó – definíciót találhatunk. Persze a legtöbben némileg egyedi szemszögből vizsgálják ezt a szemléletet, de ha összegeznem kellene, akkor jellemzően
- egy újfajta modellnek, paradigmának, keretrendszernek tekintik,
- melyben a futtatáshoz szükséges és szoros összeköttetésben álló erőforrásokat (számítás és tárolás) – melyek mérete a bankkártya méretű számítógépektől a micro adatközpontokig terjedhet –
- a hálózattal együtt
- közelebb helyezik el az adatok keletkezésének / feldolgozásának / használatának helyéhez, a fizikai valósághoz, ahol a konkrét műveletek megvalósulnak,
- lehetővé téve az analitikák helyi elkészítését, (akár helyi jelentőségű) mesterséges intelligencia alkalmazását, a folyamatok automatizálását és egyéb digitális képességeket,
- miközben a központi adatközpont(ok)ba – mely lehet a vállalat saját tulajdonában vagy bármely felhő alapú infrastruktúrában – csak a szűrt, feldolgozott, stratégiai szempontból jelentőséggel bíró adatokat továbbítják.
Az Edge Computing célja, hogy ne kelljen minden adatot eljuttatni a központba, majd ugyanazokat az adatokat a távolból lekérni egy-egy helyi jelentőségű / érvényességű döntés meghozatala vagy konkrét ügylet kiszolgálása érdekében, illetve ha nincs szükség a teljes adathalmazra, ne a központban kelljen azokat feldolgozni, s a feldolgozás idejéig tárolni. Mindezt azért, mert a felhasználók és a központi infrastruktúra közötti kellően erős kapcsolat fenntartása igen költséges (sőt, kiépítése sokszor lehetetlen), míg az adott felhasználás mértéke gyakran nem kiszolgálható az elvárt minőségben.
Szeretnél többet megtudni?
Vedd fel velünk a kapcsolatot az alábbi elérhetőségen:
Gulyás Krisztián
Team Leader, Advanced Technologies
+3614895145
Krisztian.Gulyas@alef.com