Hadoop commun

Définition - Que signifie Hadoop Common?

Hadoop Common fait référence à la collection d'utilitaires et de bibliothèques communs qui prennent en charge d'autres modules Hadoop. Il s'agit d'une partie ou d'un module essentiel de Apache Hadoop Framework, avec le système de fichiers distribués Hadoop (HDFS), Hadoop YARN et Hadoop MapReduce. Comme tous les autres modules, Hadoop Common suppose que les pannes matérielles sont courantes et que celles-ci doivent être automatiquement gérées dans le logiciel par Hadoop Framework.

Hadoop Common est également connu sous le nom de Hadoop Core.

Definir Tech explique Hadoop Common

Le package Hadoop Common est considéré comme la base / le cœur du framework car il fournit des services essentiels et des processus de base tels que l'abstraction du système d'exploitation sous-jacent et de son système de fichiers. Hadoop Common contient également les fichiers et scripts Java Archive (JAR) nécessaires pour démarrer Hadoop. Le package Hadoop Common fournit également le code source et la documentation, ainsi qu'une section de contribution qui inclut différents projets de la communauté Hadoop.