Tartalomjegyzék:
A nagy adatok - a strukturált, strukturálatlan vagy félig strukturált adatok hatalmas mennyiségének fülbemászó neve - hírhedten nehéz a begyűjtése, tárolása, kezelése, megosztása, elemzése és megjelenítése, legalábbis a hagyományos adatbázis és szoftver alkalmazások segítségével. Ez az oka annak, hogy a nagy adatszolgáltatási technológiák hatékonyan és eredményesen kezelhetik és feldolgozzák a hatalmas mennyiségű adatot. Az Apache Hadoop biztosítja a keretet és a kapcsolódó technológiákat a nagy adatkészletek számítógépes klaszterek közötti elosztott feldolgozására. Tehát ahhoz, hogy valóban megértsük a nagy adatokat, meg kell értenünk egy kicsit a Hadoopról. Itt áttekintjük azokat a legfontosabb kifejezéseket, amelyeket Hadoop kapcsán hallani fogunk - és mit is jelentnek ezek.
Webinárium: Big Iron, Meet Big Data: A mainframe adatok felszabadítása a Hadoop & Spark segítségével Itt regisztrálj |
De először nézzük meg, hogyan működik a Hadoop
Mielőtt belépne a Hadoop ökoszisztémába, meg kell értenie két alapvető dolgot. Az első a fájl tárolásának módja a Hadoop-ban; a második a tárolt adatok feldolgozása. Az összes Hadoop-technológia elsősorban ezen a két területen működik, és felhasználóbarátabbá teszi. (Ismerje meg a Hadoop működésének alapjait, hogyan segít a Hadoop a nagy adatprobléma megoldásában.)
Most tovább a feltételekhez.