Tartalomjegyzék:
- Meghatározás - Mit jelent a Hadoop elosztott fájlrendszere (HDFS)?
- A Techopedia elmagyarázza a Hadoop elosztott fájlrendszerét (HDFS)
Meghatározás - Mit jelent a Hadoop elosztott fájlrendszere (HDFS)?
A Hadoop elosztott fájlrendszere (HDFS) egy elosztott fájlrendszer, amely szabványos vagy alacsony szintű hardveren működik. Az Apache Hadoop által kifejlesztett HDFS úgy működik, mint egy szabványos elosztott fájlrendszer, de jobb adatátvitelt és hozzáférést biztosít a MapReduce algoritmuson keresztül, magas hibatoleranciát és a nagy adatkészletek natív támogatását.
A Techopedia elmagyarázza a Hadoop elosztott fájlrendszerét (HDFS)
A HDFS nagy mennyiségű adatot tárol több gépen, általában száz és ezer egyidejűleg csatlakoztatott csomópontban, és az adatok megbízhatóságát biztosítja azáltal, hogy minden adatpéldányt három különböző példányban replikál - kettő egyben és egy a másikban. Ezek a példányok meghibásodás esetén cserélhetők.
A HDFS architektúra fürtökből áll, amelyek mindegyikéhez egy külön gépen telepített egyetlen NameNode szoftver eszközzel lehet hozzáférni, hogy figyelemmel kísérjék és kezeljék a fürt fájlrendszerét és a felhasználói hozzáférési mechanizmust. A többi gép telepíti a DataNode egy példányát a fürttárolás kezelésére.
Mivel a HDFS Java nyelven íródott, natív támogatást nyújt a Java alkalmazásprogramozási felületekhez (API) az alkalmazások integrálásához és hozzáférhetőségéhez. Ez szintén elérhetõ szabványos böngészõn keresztül.