Edge 2.0 – ugrás a tegnapból rögtön a holnapba

Gulyás Krisztián

Team Leader, Advanced Technologies

Krisztian.Gulyas@alef.com

Ez a cikk egy három részből álló cikksorozat második epizódja. A sorozat cikkei:

1. rész: Bevezető (ez a cikk)

2. rész: Történelmi áttekintés

3. rész: Az új generáció – hamarosan érkezik

1. rész: Bevezető

Az elmúlt pár évben fenekestül fordult fel az IT. Számtalan katalizátora volt ennek a hihetetlen mértékű változáscunaminak. Említhetjük a Moore-törvényt (a számítógépek adatfeldolgozási teljesítménye minden 18 hónapban a kétszeresére nő), ami talán az egyik legfontosabb alapvetés a szakmánkban. De a teljesség igénye nélkül biztosan közrejátszott

  • a konténerizáció és orkesztráció megjelenése
  • a monolitikus alkalmazásokat őrült tempóban felváltó microservice alapú szemlélet elterjedése
  • az Ipar X.0 bevezetése | {3 ≤ X ≥ 4}
  • az YG hálózatok fejlődése | {4 ≤ Y ≥ 5}
  • az Agile és ZOps szemléletek alkalmazása | {Z: Net, Sec, NetSec, Dev, SuperNet, DBA, … ∞}
  • a felhőrendszerek, s ezekkel együtt a mindenféle aaS (as a Service) megoldások térnyerése
  • a pandémiás helyzet kényszerűségeire szükségszerűen adandó válaszok


és még egy csomó elemi vagy közösségi szintű fejlesztés, hazai vagy nemzetközi színtéren megjelenő szabályozás is. Na, és persze ne feledkezzünk meg a közösségi média és a rengeteg „connected” eszköz térhódításáról sem, és arról a most már szinte alapvető emberi igényről, hogy mindig mindent meg kell osztani, adatot vagy információt kell közölni és folyamatosan (értsd: gyakorlatilag valós időben) tájékoztatva, informálva kell lenni.


Ez a számtalan tényező többek között odáig vezetett, hogy

  • a pandémia miatt a vállalatok infrastruktúráit ki kellett nyitni, ki kellett terjeszteni, azonban ehhez újfajta biztonsági megfontolásokra van szükség
  • míg az alkalmazások elérése az egekbe szökött, azok átlagos életciklusa drasztikusan lerövidült
  • vannak vállalatok, melyek naponta több ezerszer (ízlelgessük ezt egy picit…) változtatnak az ügyfelek által aktívan használt alkalmazásokon (rilízelnek) – teszik ezt leállás vagy kiesés nélkül
  • a széles körben elérhetővé vált szolgáltatások (pl. open banking, home office, B2B-B2C rendszerek, stb.) fokozott terhelést jelentenek a korábban már bevált infrastruktúráknak (ami a felhasználói élmény romlásához vezethet) illetve szélesebb támadási felületet eredményeznek (ami éppen a cégek legnagyobb vagyonát, az alkalmazásaikat és az azok által kezelt adatokat veszélyezteti)
  • a felhasználók számára publikálni kívánt állományok gyorsabb elérhetőségére CDN (Content Delivery Network) megoldásokat kezdtek el használni, de a felhasználók által feltölteni szándékozott adat növekvő mennyisége és a jogszabályi környezet miatt már nem elég kizárólag a disztributált adatok optimális elérésére gondolnunk, szükséges a bejövő adatok anonimizálását / transzport előtti szűrését / (elő)feldolgozását / kollerálását / kivonatolását / mintavételezését is megoldanunk az ilyen adatok keletkezéséhez vagy az adatok felhasználásához minél közelebb

Az előbbiekben felsorolt kihívások egy részére a szakma az Edge Computing szemlélettel kereste a választ.

És akkor itt rögtön álljunk is meg egy pillanatra. Mit is értünk Edge Computing alatt?!

Ha beütjük a keresőbe, számos – a világ nagy neveitől (pl. The Linux Foundation, Wikipedia, F5, IDC, Gartner, Red Hat, Intel, Stratus, Cloudflare, Ericsson, Cisco, Microsoft, IBM, HPE) származó – definíciót találhatunk. Persze a legtöbben némileg egyedi szemszögből vizsgálják ezt a szemléletet, de ha összegeznem kellene, akkor jellemzően

  1. egy újfajta modellnek, paradigmának, keretrendszernek tekintik,
  2. melyben a futtatáshoz szükséges és szoros összeköttetésben álló erőforrásokat (számítás és tárolás) – melyek mérete a bankkártya méretű számítógépektől a micro adatközpontokig terjedhet –
  3. a hálózattal együtt
  4. közelebb helyezik el az adatok keletkezésének / feldolgozásának / használatának helyéhez, a fizikai valósághoz, ahol a konkrét műveletek megvalósulnak,
  5. lehetővé téve az analitikák helyi elkészítését, (akár helyi jelentőségű) mesterséges intelligencia alkalmazását, a folyamatok automatizálását és egyéb digitális képességeket,
  6. miközben a központi adatközpont(ok)ba – mely lehet a vállalat saját tulajdonában vagy bármely felhő alapú infrastruktúrában – csak a szűrt, feldolgozott, stratégiai szempontból jelentőséggel bíró adatokat továbbítják.

Az Edge Computing célja, hogy ne kelljen minden adatot eljuttatni a központba, majd ugyanazokat az adatokat a távolból lekérni egy-egy helyi jelentőségű / érvényességű döntés meghozatala vagy konkrét ügylet kiszolgálása érdekében, illetve ha nincs szükség a teljes adathalmazra, ne a központban kelljen azokat feldolgozni, s a feldolgozás idejéig tárolni. Mindezt azért, mert a felhasználók és a központi infrastruktúra közötti kellően erős kapcsolat fenntartása igen költséges (sőt, kiépítése sokszor lehetetlen), míg az adott felhasználás mértéke gyakran nem kiszolgálható az elvárt minőségben.

Szeretnél többet megtudni?

Vedd fel velünk a kapcsolatot az alábbi elérhetőségen:

Gulyás Krisztián
Team Leader, Advanced Technologies
+3614895145
Krisztian.Gulyas@alef.com