Zuhause Virtualisierung Wie Virtualisierung die Effizienz steigert

Wie Virtualisierung die Effizienz steigert

Inhaltsverzeichnis:

Anonim

Bei steigenden Energiekosten und sinkenden Büroflächen stehen energie- und platzsparende Lösungen im Vordergrund. Die Implementierung einer vollständigen Migration in eine virtualisierte Umgebung erscheint aus ökonomischer Sicht etwas überflüssig. Insgesamt ist die Virtualisierung in der IT-Branche jedoch auf Begeisterung gestoßen. Es gibt immer noch ein paar Falten, aber es ist das grenzenlose Potenzial, das die Menschen wirklich begeistert. Hier werfen wir einen Blick auf die Vor- und Nachteile und lassen Sie entscheiden.

Eine kleine Geschichte über Virtualisierung

Laut der offiziellen Website von VMware begann die Praxis der Virtualisierung in den 1960er Jahren, als IBM versuchte, Mainframe-Computer besser zu partitionieren, um die CPU-Auslastung zu erhöhen. Das Endergebnis war ein Großrechner, der gleichzeitig mehrere Vorgänge ausführen konnte. Mit dem Beginn der 1980er und 1990er Jahre wurde die x86-Architektur zur bevorzugten Architektur, als das verteilte Rechnen in der IT-Branche zunehmend Fuß faßte. Die Verbreitung der x86-Architektur verursachte effektiv einen Massenexodus aus der Virtualisierung, als das Server-Client-Modell einen raschen Anstieg der Popularität begann.


Im Jahr 1998 wurde VMware von einer Gruppe von Forschern der University of California Berkley gegründet, die versuchten, einige der Mängel der x86-Architektur zu beheben. Unter diesen Mängeln war ein Konzept als unzureichende CPU-Auslastung bekannt. In vielen Implementierungen der x86-Architektur liegt die durchschnittliche CPU-Auslastung zwischen 10 und 15 Prozent der Gesamtkapazität. Einer der Hauptgründe dafür ist das Ausführen eines Servers pro CPU, um die Leistung jedes einzelnen Servers zu steigern. Dies hat die Leistung verbessert, jedoch auf Kosten der Hardwareeffizienz.

Vorteile der Virtualisierung

Es ist keine Frage, dass Virtualisierung in der IT-Branche sehr populär geworden ist, aber warum? Einige der offensichtlichen Gründe sind eine erhöhte CPU-Auslastung, eine erhöhte Speicherplatzauslastung und die Möglichkeit, Server-Builds zu standardisieren. In Bezug auf die CPU-Auslastung bedeuten mehr Server auf einer physischen Maschine in der Regel mehr Arbeit, die von der CPU ausgeführt wird. Anstatt den gesamten Webdatenverkehr auf einem Computer, den gesamten SMTP-Datenverkehr auf einem anderen Computer und den gesamten FTP-Datenverkehr auf einem anderen Computer zu empfangen, kann der gesamte Datenverkehr auf einem physischen Computer empfangen werden, wodurch die CPU-Auslastung erhöht wird. Dies erfordert jedoch ein gewisses Maß an Diskretion beim Platzieren mehrerer virtueller Maschinen auf einer Hostmaschine, da dieses Szenario die Leistung beeinträchtigen kann.


Die durch die Virtualisierung bereitgestellte CPU-Auslastung wirkt sich indirekt auf die Speicherplatzauslastung aus. Unter Berücksichtigung des oben genannten Szenarios, in dem mehrere Server auf einer physischen Maschine installiert sind, ist es naheliegend, dass bei der Virtualisierung weniger physische Maschinen benötigt werden und daher weniger Speicherplatz verbraucht wird.


Schließlich eignet sich die Virtualisierung recht gut für das Klonen, Ghosting, Snapshots und jede andere derzeit verfügbare Art von Replikationssoftware. Der Wert hierfür ergibt sich aus dem Spielraum, den ein Systemadministrator zum Erstellen von Abbildern eines Betriebssystems im Netzwerk hat. Durch das Erstellen benutzerdefinierter Abbilder kann ein Systemadministrator einen Standardbuild erstellen, der im gesamten Netzwerk repliziert werden kann. Die Zeitersparnis bei der Konfiguration zusätzlicher Server ist von unschätzbarem Wert. (Weitere Informationen finden Sie unter Servervirtualisierung: 5 Best Practices.)

Nachteile der Virtualisierung

Der Großteil der festgestellten Nachteile bei der Virtualisierung betrifft in erster Linie die Sicherheit. Der erste und vielleicht wichtigste Nachteil betrifft das Konzept des Single Point of Failure. Einfach ausgedrückt, wenn sich der Webserver, der SMTP-Server und eine andere Art von Server eines Unternehmens auf demselben physischen Computer befinden, muss ein unternehmungslustiger junger Hacker nur einen Denial-of-Service-Angriff auf diesen Host-Computer ausführen, um mehrere Server zu deaktivieren die Serverinfrastruktur eines Netzwerks. Das Herunterfahren des Webservers einer Organisation kann an und für sich verheerend sein, das Herausnehmen mehrerer Server kann jedoch katastrophal sein.


Zweitens besteht eine übliche Sicherheitspraxis darin, ein Intrusion Detection System (IDS) auf mehreren Netzwerkschnittstellen in einem bestimmten Netzwerk zu platzieren. Bei richtiger Konfiguration kann das IDS ein nützliches Werkzeug sein, um Trends, Heuristiken und andere derartige Aktivitäten im Netzwerk zu untersuchen. In einer virtualisierten Umgebung, in der mehrere Betriebssysteme auf einem Hostcomputer installiert sind, wird dies jedoch nahezu unmöglich, da Intrusion Detection-Systeme nur physische Netzwerkschnittstellen überwachen können. Mit anderen Worten, das IDS funktioniert wie ein Zauber, wenn der eingehende und ausgehende Datenverkehr auf der physischen Netzwerkschnittstelle überwacht wird. Wenn sich der Datenverkehr zwischen virtuellen Servern bewegt, hört das IDS nur Grillen in der Gesamtstruktur. (Weitere Informationen finden Sie unter Die dunkle Seite der Wolke.)

Ein Muss für die IT

Die Bemühungen der meisten Unternehmen, technologisch auf dem Wasser zu bleiben, haben einen unstillbaren Durst nach mehr Kapazität und mehr Leistung ausgelöst. Angesichts der Notwendigkeit, mit weniger mehr zu erreichen, sollte es nicht überraschen, dass die Virtualisierung schnell zu einem festen Bestandteil der Systemadministration geworden ist. Bis eine neue Innovation in der CPU-Architektur die IT-Welt im Sturm erobert, wird Virtualisierung in jedem seriösen IT-Netzwerk weiterhin als absolutes Muss angesehen.

Wie Virtualisierung die Effizienz steigert