KontaktAGBDatenschutzImpressumDruckversionSitemapHome
.
ANZEIGE

S@PPORT Online

.
.
.


Unternehmen & Personen

In Memory Computing, Vortrag Samsung CIO Forum 2011 Green IT, Dr. Stefan Sigg, SAP

ERP-Software wird um Größenordnungen schneller

Der Zugriff auf die Daten im Festplattenspeicher dauert etwa 10.000mal so lange wie der auf Informationen im Arbeitsspeicher. Das ist der Grund für ein Umdenken bei der Applikationsentwicklung: Die In-Memory-Technologie verspricht hier enorme Geschwindigkeitsvorteile. Auf Samsungs CIO Forum 2011 in München gab Dr. Stefan Sigg, als Senior Vice President bei SAP für den Bereich Research & Development Data Management verantwortlich, einen Abriss über das In-Memory Computing.


Grenzen verschieben sich: Neuartige Ansätze übernehmen die Rollen, die früher von alter Technologie abgedeckt wurden. Die Bandlaufwerke zum Beispiel sind tot – außer für bestimmte Archivierungsaufgaben. Dafür übernehmen die Festplatten immer mehr die Aufgaben, für die früher die Tapes zum Einsatz kamen. „Die Kapazitäten der Festplattenlaufwerke wachsen enorm an“, fasst Sigg zusammen. „Und die Preise bezogen auf die Kapazitäten gehen zurück. Sogar das Speichern von Petabyte (PByte) auf Festplatten ist heute kein großes Thema mehr.“

Doch aufgrund der extrem besseren Zugriffsgeschwindigkeit wird das Main Memory, auch als Arbeitsspeicher oder Hauptspeicher tituliert, immer mehr Aufgaben übernehmen, die heute noch bei den Festplatten angesiedelt sind. Das gelte in erster Linie für Server werde sich aber auch bei den PCs und Notebooks so einpendeln. „Dabei geht es dann aber um Arbeitsspeicherkapazitäten im Bereich von einem Terabyte und mehr – pro Computer“, lautet die Überzeugung von Sigg. „Das war früher nur mit Disks machbar – nun wird das für den Arbeitsspeicher eine passende Aufgabenstellung.“

Daher kam man bei SAP zu der Überlegung, alles, sprich Applikation und Daten, im Arbeitsspeicher abzulegen. Damit wird dann aber der Cache auf dem Prozessor-Baustein zu einer knappen Ressource. Generell sind mehrere Stufen von Zwischenspeichern aktiv (siehe Abbildung 1), und derzeit wird bei der Software-Entwicklung in den Labs von SAP genau auf diese Ressource, den Cache auf dem Prozessor, hin die Applikation optimiert. Man möchte damit möglichst vermeiden, dass Ein-Ausgabe-Operationen nötig sind, die auf den Hauptspeicher zugreifen – sprich man möchte möglichst vieles aus dem CPU-Cache abwickeln. Die Festplatten selbst kommen bei diesem Ansatz nur mehr für die Aufgaben Backup und Recovery ins Spiel.


Abbildung 1 – Die In-Memory-Technologie verspricht weitaus schnellere Zugriffe auf die Daten (Quelle: SAP)

„Beim Online-Runtime-Einsatz kommt dann alles aus dem Arbeitsspeicher, nichts mehr von der Platte“, bringt es Sigg auf den Punkt. In der Abbildung 1 ist im Vergleich zu sehen – die alten und neuen Flaschenhälse: Früher gab es die Engstelle zwischen Arbeitsspeicher und Festplatte, künftig wird sie zwischen den CPU-Caches und dem Hauptspeicher liegen. Doch dazu gibt es einen enormen Unterschied in Bezug auf die Zugriffsgeschwindigkeiten. Die Tabelle in Abbildung 1 zeigt dazu die konkreten Werte: Es geht um ganze Größenordnungen, wenn man die Zugriffsgeschwindigkeit auf die verschiedenen Speicherebenen betrachtet. Der Zugriff auf die Festplatten liegt im Bereich von einer Million Nanosekunden (ns), der Zugriff auf den Haupt- oder Arbeitsspeicher erfolgt im Bereich von 100 ns, der Zugriff auf den Level-3-Cache einer CPU liegt bei 20 ns, der Level-2-Cache bei 5 ns und der kleine L1-Cache gar nur bei 1 ns. Daraus lässt sich schnell errechnen, welche Optimierungspotenziale dieser Ansatz bietet.

weiter zur Seite | 2 |


Zurück zur Übersicht Artikel drucken










Weitere Links

Die Themen und Inhalte in
der aktuellen Druckausgabe
finden Sie hier…

Die Vorschau auf die nächste
Druckausgabe von S@PPORT
finden Sie hier…

Die Mediadaten und Themen-
übersicht für S@PPORT
finden Sie hier…

© CMS artmedic