Zuhause In den Nachrichten 10 Big Data geht und geht nicht

10 Big Data geht und geht nicht

Inhaltsverzeichnis:

Anonim

Big Data ist für alle Branchen vielversprechend. Wenn diese Big Data effektiv und effizient genutzt werden, kann dies erhebliche Auswirkungen auf die Entscheidungsfindung und Analyse haben. Der Nutzen von Big Data kann jedoch nur erreicht werden, wenn es strukturiert verwaltet wird. Die Best Practices für Big Data werden nach und nach etabliert, aber es gibt bereits einige klare Vor- und Nachteile bei der Implementierung.


Die folgenden Anleitungen basieren auf praktischen Erfahrungen und Kenntnissen aus realen Projekten. Hier sind meine Top-Big-Data-Do's und Don'ts.

Binden Sie alle Geschäftsbereiche in eine Big-Data-Initiative ein

Eine Big-Data-Initiative ist keine isolierte und unabhängige Aktivität, und die Einbeziehung aller Geschäftsbereiche ist ein Muss, um einen echten Mehrwert und Einblick zu erhalten. Mithilfe von Big Data können Unternehmen große Datenmengen nutzen und Einblicke in das Kundenverhalten, Ereignisse, Trends, Vorhersagen usw. gewinnen. Dies ist mit einem Datenschnappschuss nicht möglich, der nur einen Teil des gesamten Datenvolumens erfasst, das in Big Data verarbeitet wird. Infolgedessen konzentrieren sich Unternehmen zunehmend auf alle Arten von Daten aus allen möglichen Geschäftsbereichen, um das richtige Muster zu verstehen.

Bewerten Sie alle Infrastrukturmodelle für die Implementierung von Big Data

Das Datenvolumen und seine Verwaltung sind ein wichtiges Anliegen für jede Big-Data-Initiative. Da es sich bei Big Data um Petabyte-Daten handelt, ist die einzige Lösung für die Verwaltung die Verwendung von Rechenzentren. Gleichzeitig muss die Kostenkomponente berücksichtigt werden, bevor ein Speicher ausgewählt und finalisiert wird. Cloud-Dienste sind häufig die beste Wahl, aber die Dienste verschiedener Cloud-Umgebungen müssen bewertet werden, um die geeignete zu ermitteln. Da Speicher eine der wichtigsten Komponenten bei jeder Big-Data-Implementierung ist, sollte dieser Faktor bei jeder Big-Data-Initiative sehr sorgfältig abgewogen werden. (Erhalten Sie eine andere Perspektive in der heutigen Big Data-Herausforderung, die sich aus der Vielfalt, nicht dem Volumen oder der Geschwindigkeit ergibt.)

Berücksichtigen Sie traditionelle Datenquellen in der Big Data-Planung

Es gibt verschiedene Quellen für Big Data und die Anzahl der Quellen steigt von Tag zu Tag. Dieses riesige Datenvolumen wird als Eingabe für die Big Data-Verarbeitung verwendet. Infolgedessen sind einige Unternehmen der Ansicht, dass traditionelle Datenquellen keinen Nutzen haben. Dies ist nicht der Fall, da diese traditionellen Daten eine wichtige Komponente für den Erfolg einer Big-Data-Story sind. Herkömmliche Daten enthalten wertvolle Informationen, daher sollten sie in Verbindung mit anderen Big-Data-Quellen verwendet werden. Der wahre Wert von Big Data kann nur abgeleitet werden, wenn alle Datenquellen (traditionelle und nicht traditionelle) berücksichtigt werden. (Weitere Informationen finden Sie unter Take That, Big Data! Warum kleine Daten möglicherweise eine größere Wirkung haben.)

Berücksichtigen Sie einen konsistenten Datensatz

In einer Big-Data-Umgebung stammen Daten aus verschiedenen Quellen. Das Format, die Struktur und die Art der Daten variieren von Quelle zu Quelle. Der wichtigste Teil ist, dass die Daten in Ihrer Big-Data-Umgebung nicht bereinigt werden. Bevor Sie den eingehenden Daten vertrauen, müssen Sie die Konsistenz durch wiederholte Beobachtung und Analyse überprüfen. Sobald die Datenkonsistenz bestätigt wurde, können sie als konsistenter Metadatensatz behandelt werden. Das Finden eines konsistenten Satzes von Metadaten durch sorgfältige Beobachtung des Musters ist eine wesentliche Übung bei jeder Big-Data-Planung.

Verteilen Sie die Daten

Das Datenvolumen ist ein Hauptanliegen, wenn wir eine Verarbeitungsumgebung betrachten. Aufgrund des riesigen Datenvolumens, mit dem Big Data zu tun hat, ist eine Verarbeitung auf einem einzelnen Server nicht möglich. Die Lösung ist eine Hadoop-Umgebung, eine verteilte Computerumgebung, die auf Standardhardware ausgeführt wird. Es ermöglicht eine schnellere Verarbeitung auf mehreren Knoten. (Weitere Informationen finden Sie in 7 Wissenswertes zu Hadoop.)

Verlassen Sie sich niemals auf einen einzigen Big-Data-Analyseansatz

Auf dem Markt stehen verschiedene Technologien zur Verarbeitung von Big Data zur Verfügung. Die Grundlage aller Big Data-Technologien bilden Apache Hadoop und MapReduce. Daher ist es wichtig, die richtige Technologie für den richtigen Zweck zu bewerten. Einige der wichtigsten Analyseansätze sind Predictive Analytics, Prescriptive Analytics, Text Analytics, Stream Data Analytics usw. Die Auswahl der geeigneten Methode / des geeigneten Ansatzes ist wichtig, um das gewünschte Ziel zu erreichen. Es ist am besten, sich nicht auf einen einzigen Ansatz zu verlassen, sondern verschiedene Ansätze zu untersuchen und die perfekte Übereinstimmung für Ihre Lösung auszuwählen.

Starten Sie keine Big-Data-Initiative, bevor Sie nicht bereit sind

Es wird immer empfohlen, mit kleinen Schritten für jede Big-Data-Initiative zu beginnen. Beginnen Sie also mit Pilotprojekten, um Fachwissen zu erlangen, und setzen Sie diese dann um. Das Potenzial von Big Data ist sehr beeindruckend, aber der wahre Wert kann nur erreicht werden, wenn wir unsere Fehler reduzieren und mehr Fachwissen gewinnen.

Verwenden Sie Daten nicht isoliert

Big Data-Quellen sind um uns herum verstreut und nehmen von Tag zu Tag zu. Es ist wichtig, alle diese Daten zu integrieren, um eine korrekte Analyseausgabe zu erhalten. Für die Datenintegration stehen auf dem Markt verschiedene Tools zur Verfügung, die jedoch vor der Verwendung ordnungsgemäß evaluiert werden sollten. Die Integration von Big Data ist eine komplexe Aufgabe, da die Daten aus verschiedenen Quellen ein unterschiedliches Format haben. Sie sind jedoch sehr wichtig, um ein gutes Analyseergebnis zu erzielen.

Ignorieren Sie nicht die Datensicherheit

Datensicherheit ist ein wichtiger Aspekt bei der Planung von Big Data. Zu Beginn (vor der Verarbeitung) werden die Daten in Petabyte angegeben, sodass die Sicherheit nicht strikt implementiert wird. Nach einer gewissen Verarbeitung erhalten Sie jedoch eine Teilmenge der Daten, die einen Einblick bieten. An diesem Punkt wird die Datensicherheit wesentlich. Je mehr die Daten verarbeitet und optimiert werden, desto wertvoller wird sie für eine Organisation. Diese fein abgestimmten Ausgabedaten sind geistiges Eigentum und müssen gesichert werden. Datensicherheit muss als Teil des Big-Data-Lebenszyklus implementiert werden.

Ignorieren Sie nicht den Leistungsteil der Big Data-Analyse

Die Ausgabe von Big-Data-Analysen ist nur dann nützlich, wenn sie eine gute Leistung liefern. Big Data bietet mehr Einblicke, die auf der schnelleren Verarbeitung einer großen Datenmenge basieren. Daher ist es wichtig, es effektiv und effizient zu verwalten. Wenn die Leistung von Big Data nicht sorgfältig verwaltet wird, führt dies zu Problemen und macht den gesamten Aufwand bedeutungslos.


In unserer Diskussion haben wir uns auf die Vor- und Nachteile von Big-Data-Initiativen konzentriert. Big Data ist ein aufstrebender Bereich, und bei der Implementierung befinden sich viele Unternehmen noch in der Planungsphase. Es ist wichtig, die Best Practices für Big Data zu verstehen, um Risiken und Fehler zu minimieren. Die Diskussionspunkte wurden aus Live-Projekterfahrungen abgeleitet, sodass einige Richtlinien für den Erfolg einer Big-Data-Strategie gegeben werden.

10 Big Data geht und geht nicht