Die Festplatte hat Konkurrenz bekommen: SSD-Speicher (Solid State Disks) könnten, so meinen optimistische Experten, das mechanisch arbeitende Speichermedium auf die Dauer sogar vollständig ersetzen. Zum Beispiel in tragbaren Rechnern, denn so manche Festplatte im Notebook ging schon durch Erschütterungen beim Transport zu Bruch.
Doch tatsächlich gibt es erst vergleichsweise wenige professionelle Anwender, die mit Flash-Modulen als Festplattenersatz oder –ergänzung arbeiten. Genaue Marktzahlen dazu findet man kaum. Manche Hersteller sprechen von einem Prozent der tragbaren Rechner, die mit SSD ausgerüstet sein sollen. „Weil erst relativ wenige und teils neue, kleine Hersteller auf dem SSD-Markt aktiv sind, lohnt es sich für die Marktforscher nicht, umfangreiche Studien anzufertigen, da die anschließend zu wenig Abnehmer finden“, erklärt den Mangel an Datenmaterial.
Das Angebot an SSD-Festplatten, die als zweite Harddisk oder gar als Festplatten-Ersatz im Laptop oder Notebook taugen, ist inzwischen recht groß. Kapazitäten und Preise der Angebote unterscheiden sich aber erheblich. Das Speichervolumen reicht von 32 bis 500 GB, die Preise von zwei bis drei Euro bis in den zweistelligen Bereich pro GB. An Anschlussvarianten gibt es neben SATA (Serial ATA) auch PCIe (PCI-Express). Wichtige Hersteller von in Deutschland verbreiteten Nachrüstsätzen sind Kingston, Intel, OCZ, und Corsair. Auch Fibre-Channel-, SAS-, oder Infiniband-Designs von SSDs sind heute verfügbar, allerdings werden sie nicht in tragbare Rechner eingebaut.
Die von den Herstellern immer wieder reklamierten Vorteile sollten eigentlich überzeugen: SSDs versprechen längere Akkulaufzeiten, schnellere Antwortzeiten, mehr Robustheit und schnelleres Hochfahren des Rechners. „Eigentlich ist eine SSD als Gerät besonders für den Laptop attraktiv, weil man wenig Energie braucht, keine Vibrationen und keine Wärme entstehen und der Rechner robust ist“, meint Jürgen Frick, Product Marketing Engineer bei PMC Sierra/Adaptec, einem Unternehmen, das im Unternehmens-SSD-Markt aktiv ist. Was also hat dann professionelle Notebook- und Laptopbesitzer so lange am Griff zur SSD gehindert?
SLC zu teuer, MLC zu wenig zuverlässig
Die Gründe für die Kaufzurückhaltung finden sich bei genauerem Hinsehen: Das wichtigste Unterscheidungsmerkmal zwischen den diversen Angeboten ist, ob der Festplattenersatz auf SLC- oder MLC-Technologie basiert. SLC (Single Level Cell) bedeutet, dass die miteinander über NAND-Schaltungen verknüpften Speicherzellen pro Zelle jeweils nur ein Bit speichern, also nur eine Spannungsebene pro Transistor verwenden. Der Zugriff auf eine Speicherzelle fördert daher automatisch genau das Bit zutage, das dort abgelegt wurde. Er ist somit superschnell und nicht irrtumsanfällig.
MLCs (Multi Level Cells) dagegen nutzen mehrere Spannungsniveaus pro Zelle. Sie können daher auch mehrere, meist vier, Bits pro Zelle speichern. Das Lesen dauert länger, da mehrere Spannungsniveaus angelegt werden müssen. Es treten häufiger Lesefehler auf, je mehr, desto öfter die Zelle schon beschrieben wurde.
Denn jeder Schreib-/Lesevorgang bedeutet eine physikalische Beanspruchung der Speicher, was auf die Dauer in Ungenauigkeiten bei der Adressierung der jeweiligen Spannungsebenen führt. Deshalb brauchen MLCs mehr Fehlerkorrekturmechanismen. Schlimmstenfalls können SSDs nur noch gelesen, aber nicht mehr beschrieben werden kann. MLC-Module eignen sich aus diesem Grund besonders gut für Systeme, bei denen mehr Lese- als Schreibbefehle anfallen.
Kriterium |
SLC |
MLC |
Preis bis |
>10 €/GByte |
2-4 €/Gbyte |
Lebensdauer |
100000 Schreibvorgänge |
10000 Schreibvorgänge |
Fehlerrate |
sehr niedrig |
ohne ausgefeilte Kontrollmechanismen höher |
Geschwindigkeit |
sehr hoch |
niedriger |
Stromverbrauch |
sehr niedrig |
höher |
Der Preis der SLC-Variante liegt meist beim Zwei- bis Mehrfachen eines Festplattenmoduls gleicher Größe in MLC-Technologie. Letztere haben dafür eine kürzere Lebensdauer und höhere Fehleranfälligkeit. Also stand der Anwender bisher vor einem Dilemma: Entweder er entschied sich für ein Billigmodul, riskierte aber dessen baldiges Ableben respektive erhebliche Leistungsverluste oder er kaufte ein teures SLC-Modul, das beinahe so viel kostet wie das gesamte Gerät, was natürlich keine attraktive Option ist. Dazu kommt, dass Festplatten noch immer Kapazitätssprünge nach oben vollziehen, während die Preisanpassungen hier nach unten erfolgen. Das heißt summa summarum, dass die Festplatte mit Harddisk-Alternativen bisher noch immer gut mithalten kann.
Leistung ist für den Business-Anwender nicht alles
Aber nicht nur das Preis-Leistungsverhältnis hemmte die Ausbreitung der Technik im professionellen Bereich. Denn anders als bei Gamern, denen es hauptsächlich auf Schnelligkeit und anspruchsvolle Grafik ankommt, müssen Business-User auch noch andere Kriterien beachten. Wichtig sind für sie Sicherheit, Zuverlässigkeit und Vertraulichkeit. Hier liegen weitere Gründe für die langsame Ausbreitung der SSD-Technologie.
Denn aufgrund ihrer Technik funktioniert das echte Löschen von Daten auf SSDs anders als bei konventionellen Festplatten. Bei Flash-Speichern entspricht nämlich die nach außen kommunizierte Adresse der Daten nicht dem wirklichen Speicherort. Dies deshalb, weil die Daten durch entsprechende Steuermechanismen der Controller so verteilt werden, dass möglichst alle Speicherblöcke gleichmäßig belastet werden. Dadurch will man vermeiden, dass Speicherzellen durch häufiges Beschreiben frühzeitig altern. Echtes Überschreiben obsoleter Daten erfordert also spezielle Maßnahmen. Außerdem wird die Kapazität einer Flash-Disk aufgrund ihrer technischen Eigenheiten relativ schnell mit Daten gefüllt (siehe Seite 9: Schreiben und Löschen auf der SSD).
Dazu kam, dass zumindest Windows XP, bis 2010 das wohl am weitesten verbreitete Betriebssystem auch auf mobilen Business-Rechnern, nicht mit dem sogenannten Trim-Befehl ausgerüstet ist. Der ist aber nötig, um Platz, den nicht mehr benötigte Daten auf der SSD belegen, wieder für das Beschreiben frei zu machen. Denn der SSD-Controller selbst kann sich wegen der oben dargestellten Struktur diese Information nicht über das Dateisystem holen, da dieses ja den wahren Speicherort nicht angibt. Das führte bei häufigen Lese- und Schreibvorgängen dazu, dass sich die Systeme plötzlich wieder verlangsamten, statt wie erhofft erheblich schneller zu arbeiten.
SSD-HDD-Hybride bisher relativ erfolglos
In der Vergangenheit konnten sich auch sogenannte Hybrid-Architekturen, wie sie etwa bereits 2007 Seagate oder Intel auf den Markt brachten, nicht durchsetzen. Intel montiert den SSD-Bereich dabei nicht als Komponente der Festplatteneinheit, sondern auf der Hauptplatine. Der Flashspeicher, meist 256 MB, funktioniert bei Hybridangeboten wie eine Art Cache, in den häufig benötigte Daten geschrieben werden, um sie schneller als von Festplatte lesen zu können. Die geringe Verbreitung dieser Architekturen mag daran liegen, dass ihr Preis in Relation zu den Vorteilen doch vielen Notebook-Herstellern zu hoch erschien. Außerdem sollen die Treiber der Betriebssysteme die erste Generation der Hybridtechnologie nur mangelhaft unterstützt haben.
Seit Sommer vergangenen Jahres versucht Seagate noch einmal, mit der hybriden 2,5-Zoll-HDD Momentus XT den Markt zu erobern. Das Produkt kombiniert 4 GB SLC-NAND-Zellen mit verschiedenen konventionellen Festplattenkapazitäten. Tests der ChannelPartner-Schwesterpublikation TecChannel ergaben, dass die versprochene große Geschwindigkeitssteigerung beim Booten jedenfalls nicht eintritt. Beim Lesen und Schreiben allerdings arbeitet die Hybridplatte rund ein Fünftel schneller, die Systemleistung stieg um 11 Prozent. Ein Einbau der Platte dürfte die betreffenden Rechner 50 Euro teurer machen.
Schub durch neue SSD-Technologien?
Doch mittlerweile deutet sich an, dass 2011 vielleicht einen Durchbruch für die SSD in tragbaren Rechnern bringen könnte. Dafür gibt es mehrere Gründe: Einerseits ist Windows ab Vista, insbesondere aber Windows 7, dafür ausgerüstet, mit SSDs zu kooperieren. Die Migrationswelle auf Windows 7 rollt, schließlich lockt diese Betriebssystem-Variante mit zeitgemäßen, aber nicht überladenen Features und Schnelligkeit. Linux unterstützt SSD ebenfalls schon länger. Nur Mac-Nutzer können in OS X bisher nicht auf geeignete Mechanismen dafür zurückgreifen und sind hier einmal im Nachteil – vorausgesetzt, man sieht die Nutzung von SSDs als vorteilhaft an.
Dazu kommen neue Technologien, die herkömmliche MLCs zu sogenannter Enterprise-MLC-Technologie aufwerten sollen. Die Veränderungen betreffen vor allem zwei Bereiche: Fehlerhäufigkeit und Haltbarkeit. Durch veränderte Mechanismen hofft man, die Zahl der Lese- oder Schreibfehler erheblich unter das bisherige Niveau zu drücken, während die Haltbarkeit der MLC-Module gleichzeitig in den Bereich der SLC-Designs rücken soll.
Gelingt das, könnten Kunden annähernd SLC-Qualität zum MLC-Preis bekommen.
Die intelligenten Mechanismen, an denen Hersteller wie STEC arbeiten, sollen besser als bisher verhindern, dass Zellen frühzeitig den Alterstod sterben und SSDs schon nach kurzem Gebrauch ihre Geschwindigkeitsvorteile einbüßen. Gewerkelt wird zum Beispiel daran, mögliche Störungen an einzelnen Zellen im Vorhinein zu prognostizieren und diese dann rechtzeitig kaltzustellen. Als Ausgleich dafür werden übrigens heute schon Überkapazitäten vorgehalten.
Optimiertes Lesen und Schreiben, bessere Prozessoren
Auch Lese- und Schreibvorgänge sollen noch stärker optimiert werden. Diese funktionieren bei der SSD nämlich grundsätzlich anders als auf Festplatten: Wegen der Flash-Charakteristiken werden Blocks nur teilweise mit Daten beschrieben, gelten aber dann trotzdem als gefüllt. Es ist durchaus möglich, dass das Schreiben einer Datei das Zehnfache ihres realen Platzverbrauchs benötigt und die SSD sehr schnell voll läuft. Das verzögert auch Zugriffe.
Hier hilft eine gute Abstimmung zwischen Controller und Cache. Einen ausreichend großen Cache sollte eine leistungsfähige SSD auf jeden Fall besitzen. Auch eine verbesserte Garbage-Collection („Müllsammlung“) ist wichtig. Das Verfahren, das vom SSD-Controller gesteuert wird, befreit nur teilweise beschriebene Blocks von Daten und verschiebt sie nach anderswo, damit neu auf die entsprechenden Blocks geschrieben werden kann. Bisher fand dieser Vorgang häufig erst dann statt, wenn die Disk ihre Kapazitätsgrenze erreichte.
Da dann zunächst keine freien Blocks mehr vorhanden waren, musste die Platte die Müllsammlung parallel zum Schreibvorgang abwickeln, was diesen verlangsamte. Die nun angepeilten Methoden gehen proaktiv vor und verhindern daher den Stau bei scheinbar voller Kapazität. Außerdem sind spezielle Mechanismen vorgesehen, die sicherstellen, dass Daten auf der SSD auch tatsächlich gelöscht und nicht mehr, wie bisher, bloß nicht angezeigt werden.
Auch noch stärkere Prozessoren wie Intels Sandy Bridge könnten der SSD Auftrieb geben, schließlich eignen sie sich speziell für leseintensive Multimedia-Anwendungen. Tatsächlich präsentierte Samsung beim deutschen Launch der neuen Prozessorgeneration mit dem 900X3A einen nur 1,6 Zentimeter dicken 17-Zoll-Notebook mit 128 GB SSD (Solid State Disk) statt rotierender Festplatte, der nur 1,35 Kilo wiegt. Allerdings kostet das Gerät 1600 Euro und damit wohl mehr als die meisten CIOs bereit sind, für einen Laptop auszugeben. „Ein Business-Laptop fängt bei etwa 600 Euro an und darf wohl kaum mehr als 1200 Euro kosten“, meint Schwab. Auch Asus ließ wissen, man werde den neuen Eee Slate EP121 Tablet-PC mit einer modularen P4-SSD von SanDisk ausrüsten.
Geld sparen mit SSD?
Kingston, einer der Anbieter von SSD-Upgrade-Kits in SLC- und MLC-Technologie, ist jedenfalls optimistisch. „Wir sehen erhebliche Nachfrage. Derzeit stellen sogar ganze Unternehmen ihre gesamte Laptop-Flotte auf SSD-Technologie um“, sagt Marco Biermann, Field Application Engineer bei dem Hersteller. Der Grund: Die Firmen sparten bei der Wartung, weil konventionelle Festplatten weitaus öfter kaputt gehen als eine SSD. „Wenn die Rücksendung des defekten Laptops per UPS schon 50 Euro kostet und der Austausch dann noch mal 200 Euro, dann ist der Preis eines SSD-Moduls schnell wieder hereingeholt“; ist Biermann überzeugt.
Investiere der Kunde dann auch noch in ein System mit avancierten Softwaremechanismen und gut abgestimmter Technologie, könne er lange Freude daran haben, ohne sich groß über Reparaturaufträge oder Beschwerden der Nutzer ärgern zu müssen. Auch eine geringere Kapazität der SSD müsse kein Hinderungsgrund sein, im Gegenteil: „Dann bleiben wenigstens nur die Daten auf der Platte, die wirklich nötig sind.“
Diese Meinung wird aber nicht von allen geteilt. So sieht Wolfgang Schwab, Senior Advisor beim Marktforschungs- und Beratungsunternehmen Experton Group, weiterhin keinen Grund, warum professionelle Anbieter massenweise auf SSDs umsteigen sollten. „Ob das System nun in einer halben Minute oder fünf Sekunden bootet, ist am Ende unerheblich. So lange Festplatten immer weiter wachsen und sich ihr Preis nicht erhöht, gibt es für Laptop-User keinen triftigen Grund, eine SSD zu bevorzugen“, meint er und sieht ein sinnvolles Anwendungsgebiet allenfalls bei Touchpads.
Der SSD-Markt soll schnell wachsen
IDC ging im Dezember 2010 von 12,1 Millionen SSD-Auslieferungen (plus 6,8 Millionen kommerzielle Produkte) im Jahr 2010 aus. Das entspricht einem Wachstum von 10,6 Prozent von Jahr zu Jahr und einem Umsatz von mehr als zwei Milliarden Dollar (plus 76.5 Prozent gegenüber dem Vorjahr).
IDC geht davon aus, dass der SSD-Absatz bis 2014 jährlich um 52,4 Prozent zunimmt. 2014 sollen 90,3 Millionen SSD ausgeliefert werden. Die Preise von NAND-Zellen sollen sich jährlich um etwa 41 Prozent verringern. Das Marktforschungsunternehmen Objective Analysis prognostiziert für 2015 einen weltweiten Umsatz von vier Milliarden Dollar mit SSD. Bezogen auf das Basisjahr 2009 sollen sich die Stückzahlen bis 2015 verfünfzigfachen und vier Millionen Einheiten erreichen.
Schreiben und Löschen auf der SSD
Solid-State-Disks werden mit einem Bitstrom beschrieben. Mehrere Bits bilden eine Page (Seite), und mehrere Seiten werden wiederum in einem Block zu 128 oder 256 Seiten zusammengefasst.
Ändern sich einzelne Seiten, bekommen sie eine Markierung, weil sie nicht mehr aktuell sind, werden aber nicht gelöscht.
Der gesamte Inhalt der Seite wird zudem samt Änderung auf eine freie Seite des aktuellen Blocks geschoben. Das heißt, jede Änderung von zum Beispiel einem Bit kann eine Vergrößerung des benötigten Speicherraumes um eine ganze Page verursachen.
Das ist der Grund dafür, warum eine SSD schneller voll läuft als erwartet und warum ihre Nutzung für schreibintensive Aufgaben nicht sehr günstig ist. Erst wenn alle Seiten eines Blocks voll sind, werden die darin befindlichen Daten tatsächlich gelöscht. Sie können aber noch immer im Reservebereich der SSD liegen.
Der Beitrag stammt von der ChannelPartner-Schwesterpublikation Computerwoche. Autorin ist Ariane Rüdiger, freie Journalistin in München.