Laut einer IDC-Studie wächst die Datenmenge um 46% pro Jahr. Laut Gartner werden die Ausgaben für Rechenzentrums-Systeme ab 2015 in den nächsten vier Jahren um durchschnittlich 1, 8% steigen. Zusammengenommen bedeuten diese beiden Berichte, dass CTOs und CIOs voraussichtlich mehr Daten zu geringeren Kosten speichern. Berücksichtigt man die Inflation, schrumpfen die Budgets für die Datenspeicherung. Die Situation wird durch die Anforderungen der aktuellen datengesteuerten Umgebung noch komplizierter, in der jederzeit ein sofortiger Zugriff auf Informationen auf Abruf von verschiedenen Standorten erwartet wird. Es ist eine harte, aber nicht unlösbare Nuss, da durch Speichervirtualisierung der Durchsatz gesteigert, die Betriebskosten gesenkt und die Skalierbarkeit von IT-Systemen pro Terabyte gespeicherter Daten verbessert werden kann.
Die Speichervirtualisierung ist zwar keine neue Technologie, sie ist jedoch nicht so weit verbreitet wie die Desktop- oder Server-Virtualisierung (Anwendungsvirtualisierung). Dies ist insofern überraschend, als die Rentabilität von Anwendungen und Infrastrukturen laut IBM-Untersuchungen nicht vollständig realisiert wird, wenn der Speicher nicht virtualisiert wird. Virtualisierter Speicher bietet stabilen, einheitlichen und zuverlässigen Zugriff auf Daten, selbst wenn sich die zugrunde liegende Hardware ändert, wenn Speichermedien erweitert werden, entfernt werden oder ausfallen. Dies ist möglich, da die Speichervirtualisierung das Datenspeichermanagement automatisiert und die Erweiterung und Aktualisierung von Speicherressourcen im laufenden Betrieb ermöglicht.
Die Virtualisierung fungiert als Zwischenschicht und als primäre Schnittstelle zwischen Servern und Speicher. Server betrachten die Virtualisierungsebene als ein einzelnes Speichergerät, während alle einzelnen Speichergeräte die Virtualisierungsebene als ihren einzigen Server betrachten. Dies erleichtert das Gruppieren von Speichersystemen - auch von Geräten verschiedener Hersteller - in Speicherebenen.