Bei all dem Rummel um riesige NSA-Rechenzentren, die Millionen von Datenbits über unser Privatleben enthalten, wurde über eine Sache nicht viel geredet, zumindest nicht über CNN. Es handelt sich um ein technisches Problem, das zusammen mit der Cloud-Technologie, Big Data und den beeindruckenden physischen Datenspeicherzentren, die derzeit auf der ganzen Welt gebaut werden, aufgetreten ist. Also, was ist es? Egal, wer eines der riesigen IT-Systeme verwaltet, auf denen diese Einrichtungen ausgeführt werden, es besteht ein Bedarf an Softwaresystemen, mit denen all diese Daten schnell in die Pipeline und aus der Pipeline gelangen können. Dieses Bedürfnis stellt eine der interessantesten IT-Fragen oder Rätsel dar, mit denen Fachleute heute konfrontiert sind.
Wie viele Experten betonen, geht die heutige extreme Nachfrage nach Datenverarbeitung weit über die traditionellen Ansätze hinaus. Einfach ausgedrückt, die Verwendung einfacher Datenbankstrukturen und Tools wie SQL-Abfrageschnittstellen wird nicht genügend Rechenleistung oder Funktionalität für die in den letzten Jahren entwickelten proprietären Systeme bieten. Die Archive der heutigen großen Technologieunternehmen benötigen eine extrem skalierbare Technologie. Sie benötigen Datenverarbeitungs-Tools, die Ein- und Ausgabeergebnisse in viel höherem Umfang ermöglichen, als dies mit einem einzelnen Server möglich ist. Sie benötigen Lösungen, die schnell auf Wachstumskurs gebracht werden können, Lösungen mit komplexen Ebenen der künstlichen Intelligenz, Lösungen, die für die einfache Verwaltung durch eine IT-Abteilung entwickelt wurden.
Die Frage ist, wie Unternehmen und Regierungsbehörden die Grenzen des traditionellen Datenverarbeitungswegs überwinden können. Hier sehen wir uns eine vielversprechende Option an: Software, die Big Data verwaltet und die Verwaltung mehrerer Rechenzentren.