Die wissenschaftliche und kommerzielle Datenverarbeitung durchläuft einen immensen Wandel, da die Nachfrage nach der Verarbeitung großer Datensätze für eine Vielzahl von Anforderungen wie Simulationen, Modellierungen und Berechnungen multivariater Gleichungen steigt. Die Berechnung wurde bisher hauptsächlich als Methode zur Erzielung von Ergebnissen eingesetzt und verlagert sich nun auf ein datenintensives Rechenmodell, um einige der anspruchsvollsten wissenschaftlichen und kommerziellen Herausforderungen zu bewältigen. Unternehmen und die gewerbliche Wirtschaft sehen sich mit der Notwendigkeit konfrontiert, immer größere Datensätze für Branchen wie Öl und Gas, Kommunikation, Medien und Unterhaltung, Gesundheitswesen und Biowissenschaften sowie Big Data Analytics zu verarbeiten. Die aktuellen Daten- und Speicherarchitekturen reichen nicht aus, um datenintensive Rechenmodelle und Simulationen im Terabyte- und Petabyte-Bereich bereitzustellen, die neue flexible Möglichkeiten des Datenzugriffs mit Geschwindigkeiten von mehreren Terabyte pro Sekunde erfordern. Elastische, auf Cloud-Computing basierende Zugriffsmodelle werden immer notwendiger, um die Skaleneffekte einer gemeinsam genutzten Infrastruktur zu nutzen.