Zuhause Trends 7 Wissenswertes über Hadoop

7 Wissenswertes über Hadoop

Inhaltsverzeichnis:

Anonim

Was ist Hadoop? Es ist ein gelber Spielzeugelefant. Nicht das, was Sie erwartet hatten? Wie wäre es damit: Doug Cutting - Mitbegründer dieses Open-Source-Softwareprojekts - hat den Namen von seinem Sohn entlehnt, der zufällig seinen Spielzeugelefanten Hadoop nannte. Kurz gesagt, Hadoop ist ein von der Apache Software Foundation entwickeltes Software-Framework, mit dem datenintensives verteiltes Computing entwickelt wird. Und es ist eine Schlüsselkomponente in einem anderen Schlagwort, von dem Leser scheinbar nie genug bekommen: Big Data. Hier sind sieben Dinge, die Sie über diese einzigartige, frei lizenzierte Software wissen sollten.

Wie hat Hadoop angefangen?

Vor zwölf Jahren baute Google eine Plattform auf, um die gewaltigen Datenmengen, die es sammelte, zu manipulieren. Wie das Unternehmen es oft tut, stellte Google sein Design der Öffentlichkeit in Form von zwei Artikeln zur Verfügung: Google File System und MapReduce.


Zur gleichen Zeit arbeiteten Doug Cutting und Mike Cafarella an Nutch, einer neuen Suchmaschine. Die beiden hatten auch Probleme damit, mit großen Datenmengen umzugehen. Dann bekamen die beiden Forscher Wind von Googles Papieren. Diese glückliche Überschneidung veränderte alles, indem sie Cutting und Cafarella in ein besseres Dateisystem einführte und eine Möglichkeit bot, die Daten im Auge zu behalten, was schließlich zur Schaffung von Hadoop führte.

Was ist an Hadoop so wichtig?

Das Sammeln von Daten ist heute einfacher als je zuvor. All diese Daten bieten viele Möglichkeiten, aber es gibt auch Herausforderungen:

  • Massive Datenmengen erfordern neue Verarbeitungsmethoden.
  • Die erfassten Daten haben ein unstrukturiertes Format.
Cutting und Cafarella entwickelten eine zweiteilige Lösung, um die Herausforderungen zu bewältigen, die mit der Manipulation immenser Mengen unstrukturierter Daten verbunden sind. Um das Datenmengenproblem zu lösen, verwendet Hadoop eine verteilte Umgebung - ein Netzwerk von Commodity-Servern - und erstellt einen Parallelverarbeitungscluster, der mehr Verarbeitungsleistung für die zugewiesene Aufgabe bringt.


Als Nächstes mussten sie unstrukturierte Daten oder Daten in Formaten verarbeiten, die von relationalen Standarddatenbanksystemen nicht verarbeitet werden konnten. Cutting and Cafarella hat Hadoop so konzipiert, dass es mit jeder Art von Daten arbeitet: strukturiert, unstrukturiert, Bilder, Audiodateien, sogar Text. In diesem Whitepaper von Cloudera (Hadoop Integrator) wird erläutert, warum dies wichtig ist:

    "Indem Sie all Ihre Daten nutzbar machen, nicht nur die Daten in Ihren Datenbanken, können Sie mit Hadoop verborgene Beziehungen aufdecken und Antworten aufdecken, die bisher nur unerreichbar waren. Sie können mehr Entscheidungen auf der Grundlage von harten Daten treffen, anstatt sich Gedanken zu machen und nachzuschauen." bei vollständigen Datensätzen, nicht nur bei Stichproben und Zusammenfassungen. "

Was ist Schema on Read?

Wie bereits erwähnt, ist einer der Vorteile von Hadoop die Fähigkeit, unstrukturierte Daten zu verarbeiten. In gewissem Sinne bedeutet das, "die Dose die Straße runterzutreten". Schließlich benötigen die Daten eine Art Struktur, um sie zu analysieren.


Hier kommt das Schema beim Lesen ins Spiel. Das Schema beim Lesen ist das Zusammenführen, in welchem ​​Format die Daten vorliegen, wo sie zu finden sind (denken Sie daran, dass die Daten auf mehrere Server verteilt sind) und was mit den Daten zu tun ist - keine einfache Aufgabe. Man sagt, dass die Manipulation von Daten in einem Hadoop-System die Fähigkeiten eines Business Analysts, eines Statistikers und eines Java-Programmierers erfordert. Leider gibt es nicht viele Menschen mit diesen Qualifikationen.

Was ist Hive?

Wenn Hadoop erfolgreich sein sollte, musste die Arbeit mit den Daten vereinfacht werden. Also machte sich die Open-Source-Crowd an die Arbeit und schuf Hive:

    "Hive bietet einen Mechanismus, um Strukturen auf diese Daten zu projizieren und die Daten mit einer SQL-ähnlichen Sprache namens HiveQL abzufragen. Gleichzeitig können traditionelle Map / Reduce-Programmierer mit dieser Sprache ihre benutzerdefinierten Mapper und Reducer einbinden, wenn dies unpraktisch oder unpraktisch ist ineffizient, um diese Logik in HiveQL auszudrücken. "

Hive ermöglicht das Beste aus beiden Welten: Datenbankmitarbeiter, die mit SQL-Befehlen vertraut sind, können die Daten manipulieren, und Entwickler, die mit dem Schema für den Lesevorgang vertraut sind, können weiterhin benutzerdefinierte Abfragen erstellen.

Welche Daten analysiert Hadoop?

Webanalyse ist das erste, was mir in den Sinn kommt, Webprotokolle und Webdatenverkehr zu analysieren, um Websites zu optimieren. Facebook zum Beispiel befasst sich definitiv mit Webanalysen und verwendet Hadoop, um die Terabyte an Daten zu sortieren, die das Unternehmen ansammelt.


Unternehmen verwenden Hadoop-Cluster zur Durchführung von Risikoanalysen, Betrugserkennung und Kundensegmentierung. Versorgungsunternehmen analysieren mit Hadoop Sensordaten aus ihrem Stromnetz und optimieren so die Stromerzeugung. Ein großes Unternehmen wie Target, 3M und Medtronics nutzen Hadoop, um den Produktvertrieb, die Bewertung des Geschäftsrisikos und die Segmentierung des Kundenstamms zu optimieren.


Auch Universitäten investieren in Hadoop. Brad Rubin, außerordentlicher Professor an den Graduiertenprogrammen für Software der Universität St. Thomas, erwähnte, dass sein Hadoop-Fachwissen dazu beiträgt, die zahlreichen Datenmengen zu sortieren, die von den Forschungsgruppen der Universität zusammengetragen wurden.

Können Sie ein reales Beispiel für Hadoop geben?

Eines der bekannteren Beispiele ist die TimesMachine. Die New York Times verfügt über eine Sammlung ganzseitiger TIFF-Zeitungsbilder, zugehöriger Metadaten und Artikeltexte von 1851 bis 1922, die sich auf Terabytes an Daten belaufen. Derek Gottfrid von NYT verwendet ein EC2 / S3 / Hadoop-System und einen speziellen Code:

    Es wurden 405.000 sehr große TIFF-Bilder, 3, 3 Millionen Artikel in SGML und 405.000 XML-Dateien aufgenommen, die Artikel rechteckigen Bereichen in den TIFFs zuordnen. Diese Daten wurden in webfreundlichere 810.000 PNG-Bilder (Miniaturansichten und Vollbilder) und 405.000 JavaScript-Dateien konvertiert. "

Gottfrid erwähnte, dass mit Servern in der Amazon Web Services-Cloud alle für die TimesMachine erforderlichen Daten in weniger als 36 Stunden verarbeitet werden konnten.

Ist Hadoop bereits veraltet oder verwandelt es sich nur noch?

Hadoop gibt es schon seit über einem Jahrzehnt. Das hat viele sagen, es ist veraltet. Ein Experte, Dr. David Rico, sagte: "IT-Produkte sind kurzlebig. In der Hundeperiode sind Googles Produkte etwa 70, während Hadoop 56 Jahre alt ist."


Was Rico sagt, mag etwas Wahres sein. Es sieht so aus, als würde Hadoop einer umfassenden Überarbeitung unterzogen. Um mehr darüber zu erfahren, lud mich Rubin zu einem Treffen der Twin Cities Hadoop User Group ein. Das Diskussionsthema lautete Einführung in YARN:

    "Apache Hadoop 2 enthält eine neue MapReduce-Engine, die gegenüber der vorherigen Implementierung eine Reihe von Vorteilen bietet, darunter eine bessere Skalierbarkeit und Ressourcennutzung. Die neue Implementierung basiert auf einem allgemeinen Ressourcenverwaltungssystem zum Ausführen verteilter Anwendungen mit dem Namen YARN."
Hadoop ist in Datenbank- und Content-Management-Kreisen sehr gefragt, es gibt jedoch noch viele Fragen, wie es am besten eingesetzt werden kann. Dies sind nur einige davon. Wenn Sie mehr haben, schicken Sie sie uns. Wir werden die besten auf Techopedia.com beantworten.

7 Wissenswertes über Hadoop