Ein Flash ist ein Flash ist ein …

Infrastruktur-Lösungen

Ein Flash ist ein Flash ist ein …

Über Flash-Technologie und SSD-basierte Systeme

Sicher kennen Sie diesen Spruch in der Originalversion: Eine Rose ist und bleibt eine Rose!

Gertrude Stein, amerikanische Schriftstellerin aus dem letzten Jahrhundert, beschreibt damit einen Gegenstand, wie er vom Wesen her ist. Warum dieses Zitat bei Flash-Speichern nicht zutrifft, liegt im technischen Detail und auch im Marketing vieler Hersteller. Halbleiterspeicher werden in den nächsten Jahren die drehende Festplatte verdrängen − so können heute schon Flash-basierte Speicher im Petabyte-Bereich ausfallsicher und kostengünstig betrieben werden − die 15-Terabyte-SSD steht vor der Marktreife. Diese unterstützen Effizienzeigenschaften wie Datenkompression oder Deduplizierung, inzwischen auch ohne merklichen Performance-Verlust! Auf was also warten?

Woher kommen die Unterschiede im Flash und wie kommen die unterschiedlichen Preise zustande?

Zunächst unterscheiden wir zwischen wirklicher Flash-Technologie und SSD-basierten Systemen, ein Sachverhalt, den Hersteller gerne nicht erwähnen. Reine Flash-basierte Systeme arbeiten in der Regel nicht mit SAS-Backend-Anbindung (benötigt für die Anbindung der Festplatten), sondern verwenden spezialisierte Switch-Technologie, um die einzelnen Flash-Module anzubinden. Die RAID-Berechnung läuft nicht im Disk-Controller und es wird keine Software im Datenpfad eingesetzt (Software im Datenpfad reduziert Performance).

Geschickte Algorithmen sorgen dafür, dass der Nutzungsgrad und die damit verbundene Lebensdauer dieser Flash-Module – selbst bei Ausfall einzelner Zellen – sehr hoch ist. Die Latency ist ebenfalls um ein Vielfaches besser als bei SSD-basierten Systemen. Zusammengefasst kann man sagen, ein reines Flash-System braucht keine Emulation, um eine Festplatte (hier SSD) gegenüber dem Controller darzustellen (und Emulation kostet Latency!). Nachteil: Diese „Formel-1-Technik“ kann teurer sein als SSD-basierte Speichersysteme.

In der SSD-Halbleiterfamilie selbst gibt es gravierende Unterschiede. Einer der wichtigsten unterschiedlichen Parameter heißt DWPD (Drive Writes Per Day). Dieser Wert gibt die Haltbarkeit der SSD in Abhängigkeit vom Überschreibzykluses an. Eine aktuelle Enterprise Grade SSD (Speichervolumen von ca. 400 Gigabyte bis 3,2 Terabyte) ist auf zehn DWPD ausgelegt. Das bedeutet, dass der Lebenszyklus der SSD mit zehn kompletten Überschreibungen pro Tag nicht eingeschränkt wird.

Setzt man also eine 2-Terabyte-SSD ein, können pro Tag 20 Terabyte beschrieben werden und der Lebenszyklus wird nicht vermindert. Diese Enterprise SSD ist teurer als die neueren RI-SSDs. RI-SSD (Read Intensive SSD, zum Beispiel Toshiba Phoenix) sind hochkapazitive SSDs, die nur mit einem DWPD vom Hersteller freigegeben sind. Bleiben wir bei dem Beispiel oben, darf eine 2-Terabyte-SSD pro Tag nur mit zwei Terabyte Änderungsvolumen beschrieben werden. Der ideale Workload für eine solche kostengünstigere Technik ist Streaming /sequentielle Workload wie zum Beispiel Video on Demand − also alles, bei dem mehr gelesen als geschrieben wird.

Der Mix macht‘s!

Ideal kombiniert man nun beide SSD-Typen, um in einem Speichersystem Performance, Ausfallsicherheit und Anschaffungspreis zu vereinigen − Enterprise SSDs für Datenbanken, CRM etc., also transaktionale Anforderungen mit höheren Schreib/Lösch-Raten, und RI-SSDs für die restliche Workload.

Wer entscheidet nun, mit welcher Technologie in einem dynamischen Umfeld gespeichert wird? Dies muss das Speichersystem selbst übernehmen − die Technik hierfür ist das automatische Tiering. Anhand der Zugriffe auf die SSDs erkennt der Controller, welche Daten heiß sind (hohe Änderungsraten) und auf welche SSD-Technik im Bezug auf Lebensdauer ideal gespeichert wird.

IBM bietet alle hier genannten Technologietypen an und wurde am 24. August 2016 im Gartner Report als Leading Vendor ausgezeichnet!

Ralf Colbus,
Leading Storage Professional der IBM