Tartalomjegyzék:
A folyamatos adatfeldolgozás egy feltörekvő terület. Ez azt jelenti, hogy az adatokat szinte azonnal (nagyon alacsony késleltetési idővel) dolgozzák fel, amikor azokat előállítják. Eddig a legtöbb adatfeldolgozás kötegelt rendszereken alapult, ahol a feldolgozás, az elemzés és a döntéshozatal késleltetett folyamat volt. Most, az új technológiák és platformok fejlődésével, a szervezetek fokozatosan az áramlás-alapú megközelítés felé haladnak, nem pedig a régi kötegelt alapú rendszerek. Az Apache Flink nyílt forráskódú projekt az adatfeldolgozás streamingjéhez. Segít a szervezeteknek valós idejű elemzésben és időben történő döntések meghozatalában.
Internetes szeminárium: Állandó a szélén: Az Analytics folyamatos működése Itt regisztrálj |
Mi az Apache Flink?
Az Apache Flink úgy határozható meg, mint egy nyílt forrású platform, amely képes elosztott adatfolyam- és kötegelt adatok feldolgozására. Az Apache Flink magja egy adatfolyam-adatfolyam-motor, amely támogatja a kommunikációt, az elosztást és a hibatűrést az elosztott adatfolyam-feldolgozáshoz. Az Apache Flink az egyetlen hibrid platform, amely mind a kötegelt, mind az adatfolyam-feldolgozást támogatja. Támogatja a valósidejű feldolgozáson, gépi tanulási projekteken, kötegelt feldolgozáson, grafikon elemzésen és másokon alapuló különböző használati eseteket.
Az Flink a következő összetevőkből áll, a valós alkalmazások létrehozásához, valamint a gépi tanulás és a grafikonfeldolgozási képességek támogatásához: