Inhaltsverzeichnis:
Definition - Was bedeutet Hadoop Common?
Hadoop Common bezieht sich auf die Sammlung allgemeiner Dienstprogramme und Bibliotheken, die andere Hadoop-Module unterstützen. Es ist neben dem Hadoop Distributed File System (HDFS), Hadoop YARN und Hadoop MapReduce ein wesentlicher Bestandteil oder Modul des Apache Hadoop Framework. Wie bei allen anderen Modulen geht Hadoop Common davon aus, dass Hardwarefehler häufig auftreten und dass diese in der Software vom Hadoop Framework automatisch behandelt werden sollen.
Hadoop Common ist auch als Hadoop Core bekannt.