Solid-State-Drive

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Speichermedium
Solid State Drive (SSD)
2008Computex Ritek RiDATA Ultra-S IDE SATA2 SSD.jpg
Verschiedene SSD (Computex Ritek RiDATA Ultra-S)
Allgemeines
Typ Halbleiterbausteine
Kapazität bis 10 TB
Lebensdauer Schreibvorgänge je Zelle[1]:
1.000 (TLC in 21-nm-Fertigung)
3.000 (MLC in 25-nm-Fertigung)
5.000 (MLC in 34-nm-Fertigung)
10.000 (MLC in 50-nm-Fertigung)
100.000 (SLC in 50-nm-Fertigung)
bis zu 5 Mio. (selektierte SLC-Chips)
Größe verschieden
Ursprung
Markteinführung 1978 von StorageTek
Vorgänger Festplattenlaufwerk

Ein Solid-State-Drive bzw. eine Solid-State-Disk (kurz SSD), seltener auch Halbleiterlaufwerk[2] genannt, ist ein nichtflüchtiges elektronisches Speichermedium der Computertechnik. Die Bauform und die elektrischen Anschlüsse können, müssen aber nicht den Normen für Laufwerke mit magnetischen oder optischen Speicherplatten entsprechen. So können Solid-State-Drives auch als PCIe-Steckkarte ausgeführt sein. Die Bezeichnung „Drive“ (englisch für Laufwerk) weist daher lediglich auf die Verwendung als Ersatz für bisher übliche Festplatten hin: Es handelt sich nicht um Laufwerke im Wortsinn, bewegliche Teile sind nicht enthalten.

Vorteile eines Solid-State-Drive gegenüber herkömmlichen Laufwerken sind mechanische Robustheit, sehr kurze Zugriffszeiten und keine Geräuschentwicklung aufgrund beweglicher Bauteile, da solche nicht vorhanden sind. Der Hauptnachteil im Vergleich mit konventionellen Festplatten gleicher Kapazität ist derzeit noch ein erheblich höherer Preis. Trotz der mechanischen Robustheit können auch SSDs ausfallen oder Systemfehler verursachen. Ursache ist meist ein Fehler im verwendeten Controller oder in der Firmware. Insbesondere neuere Modelle kommen immer wieder mit unausgereifter Firmware auf den Markt, welche im Verlauf der Marktpräsenz durch Firmware-Updates nachgebessert wird.[3][4][5]

Zudem variiert die Qualität des verbauten NAND-Flashs. Neben der in die „Klasse 1“ eingestuften NAND-Flash wird auch als „Klasse 2“ eingestufter NAND-Flash in SSDs verbaut. Der SSD-Hersteller OWC hat bei einer Stichprobe von SSDs seines Konkurrenten OCZ sogar „Off-spec“-NAND in der SSD gefunden, das heißt Bauteile, deren Eigenschaften nicht innerhalb der Spezifikation liegen.[6] Das sind Chips, die eigentlich die Qualitätssicherung für den Einsatz in SSDs laut NAND-Hersteller nicht bestanden haben. Andere Hersteller wiederum, wie z. B. Samsung in der neuesten 840-SSD-Serie, setzen seit neustem auch auf TLC-NAND-Speicherzellen. TLC (engl. triple-level cell, dt. dreistufige Speicherzellen) hat im Vergleich zu SLC (engl. single-level cell) weitere Spannungslevel, wodurch noch mehr Daten pro Speicherzelle gespeichert werden können. Aufgrund der kleineren Abstände zwischen diesen Stufen und der daraus resultierenden Schwierigkeit, diese Level stets korrekt auszulesen, ist die Lebensdauer von TLC-Speicherzellen noch geringer als von MLC-Speicherzellen mit gleicher Fertigung und Güte.

Die Preise, bezogen auf die Speicherkapazität, waren ursprünglich sehr hoch. Ebenso wie die Baugrößen verringerten sich die Preise bei gleicher Leistung schnell entsprechend dem Mooreschen Gesetz. Dies führte dazu, dass um die Jahrtausendwende erstmals SSDs für spezielle Anwendungen wirtschaftlich sinnvoll eingesetzt werden konnten.

Im Mai 2013 lagen die Preise (in Euro pro Gigabyte) für eine SSD bei ungefähr dem Dreizehnfachen des Preises eines herkömmlichen Magnetspeicher-Laufwerks (0,55 €/GB für eine 250 GB große SSD gegenüber 0,044 €/GB für eine 2.000-GB-Magnetfestplatte).[7][8]

Wird eine herkömmliche, magnetische Festplattentechnik mit einem Solid-State-Speicher zu einem Gerät kombiniert, so spricht man von einer Hybridfestplatte (engl. hybrid hard drive, HHD; auch engl. solid state hybrid disk, SSHD[9]).

Begriffsklärung[Bearbeiten]

In der Geschichte der Elektronik bedeutet der englische Begriff „solid state“, dass Halbleiterbauteile verwendet werden, die mit Hilfe der Festkörperphysik entwickelt wurden, statt Elektronenröhren oder beweglicher mechanischer Teile wie z. B. rotierender Magnetplatten. In Analogie zu anderen Festplattentechniken wird das Medium als „Drive“ oder „Disk“ bezeichnet, obwohl das Speichermedium ohne bewegliche Teile funktioniert. Der Begriff „solid state“ ist deshalb kein Synonym des Begriffes Festspeicher (oder nichtflüchtiger Speicher), der alle konventionellen Disketten, CD-ROMs und Festplatten als auch ROMs und SSDs umfasst.

Verfahren[Bearbeiten]

SO-SDRAM-Speicherchips

Zwei Arten von Speicherchips werden verwendet: Flash-basierte und SDRAMs.

Flash-Speicher sind besonders energieeffizient und sogar stromunabhängig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund zehn Jahre versprochen.

SDRAM-Chips sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der deutlich höheren Geschwindigkeit. Mitte der 1990er auch als „RAM-Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplattenschnittstelle realisiert sein – oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Das Auffinden beliebiger Daten geht 700mal schneller als bei einer Festplatte. Gegenüber der Flash-Technik sind sie 80mal so schnell. Ein zweiter Vorteil ist die festplattenähnliche, fast unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 100.000 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt für einzelne Flashzellen. Eine solche kann bei Verschleiß oft mittels S.M.A.R.T. automatisch gegen eine Reservezelle ausgetauscht werden. Etwa zehn Prozent der Zellen einer SSD dienen als Reserve.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen – Festspeicher – zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um z. B. bei einem Stromausfall ein Sicherheitskopie zu haben. An dieser Stelle schließt sich der Kreis, denn umgekehrt enthalten konventionelle Festplatten immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. „Cache“).

Vorteile und Einsatzgebiete[Bearbeiten]

Der Wegfall der empfindlichen Motorlagerung und Lese-Schreib-Mechanik der Laufwerke mit rotierenden Platten ergibt eine erhöhte Stoßfestigkeit. Auch die Temperaturtoleranz ist größer. Dies betrifft sowohl den Temperaturbereich, in dem SSD betrieben werden können, als auch die Toleranz hinsichtlich Temperaturänderungen. Dies qualifiziert SSDs für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten SSDs daher in MP3-Playern und USB-Sticks. Wegen des zwischenzeitlich deutlich gesunkenen Preises pro GB sind sie mittlerweile auch für (Sub-)Notebooks interessant. Ein weiterer Vorteil besteht in der konstanten, im Vergleich zu rotierenden Platten sehr geringen Latenz im Zugriff auf die gespeicherten Daten. Während beim Zugriff auf Daten in physisch weit voneinander entfernten Sektoren auf einer Festplatte eine relativ lange Zeit benötigt wird, um den Lesekopf auf die neue Position (ähnlich einem Schallplattenspieler) zu bewegen, können bei einer SSD über die Adresse eines Datenblocks unabhängig vom vorher relevanten Block die enthaltenen Informationen gelesen bzw. geschrieben werden. Zusätzlich nehmen im Gegensatz zu Festplatten die sequentiellen Transferraten nicht ab, wenn man den Formfaktor verkleinert (bei Festplatten haben bei größeren Platten die äußeren Spuren einen größeren Durchmesser, dadurch haben dort mehr Daten Platz, und daher können pro Umdrehung mehr Daten gelesen werden). Hybridfestplatten und reine SSD-Modelle sind seit 2007 im Handel.

Im stationären Einsatz finden sich eher SDRAM-basierte SSDs, und das meist weitab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerklastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte begann 1978, als das Unternehmen StorageTek die „Solid State Disk STK 4305“ auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Großrechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung „Solid-State Disk“.[10] Aktuell (2007) sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehäuses die derzeit schnellsten (Massen-)Speicher darstellen. Ihre Preise lagen 2007 bei 700 US-Dollar pro Gigabyte,[11] ihre Geschwindigkeit lag damals beim 30-fachen der Flash-SSDs und dem über 300-fachen normaler Server-Festplatten.

Mit steigender Leistung der Flash-SSDs und besseren Controllern war 2008 erstmals ein vergleichbar schnelles Laufwerk auf NAND-Basis verfügbar. Es wird zugunsten schneller Systemanbindung als PCIe-x4-Karte angeboten, weshalb es jedoch nicht als Laufwerk für das Betriebssystem verwendbar ist, da das System zunächst starten muss, um das „fusion io“ über einen Treiber ansprechen zu können. Das und der Preis von 50 Euro pro Gigabyte machen es für den Endkundenmarkt uninteressant, stellen aber im oben genannten Einsatzgebiet ein sehr günstiges Angebot für eine Leistung auf RamSan-Niveau dar.[12]

Es werden Speicherkapazitäten bis rund 10 TB angeboten, die Bauform ist bei diesen Modellen PCIe2.0 x16.[13]

Aber auch im Bereich der eingebetteten Systeme, in denen es ausschließlich auf den Verzicht auf mechanische Teile ankommt, werden häufig Solid-State-Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung hat aus Platz- und Energiegründen häufig keinen Festplattenanschluss; stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heute auch jeder PC. Dieser fasst aktuell bis zu zwei Megabyte und enthält die Firmware (etwa EFI oder BIOS).

Weitere Anwendungsgebiete finden sich in Umgebungen in denen Schmutz, Erschütterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.

SSDs im Endkundenmarkt[Bearbeiten]

SSDs sind dabei, konventionelle Festplattentechnik zu ergänzen oder sogar zu ersetzen, und zwar besonders in mobilen Geräten. Mit einer Ablösung durch Flashspeicher verschwinden zahlreiche Unterscheidungsmerkmale der Hersteller. Dazu gehören die Punkte Lautstärke und Kühlungsbedarf, aber auch die dann prinzipbedingt sehr ähnliche Stoßfestigkeit und Zugriffszeit. Den Herstellern bleibt Gestaltungsfreiraum bei Geschwindigkeit, Kapazität, Zuverlässigkeit, Preis, Energiebedarf, Gehäusegröße und Gewicht, Zubehör sowie weiteren Merkmalen (z. B. Verschlüsselung). Diese Situation besteht bereits bei USB-Sticks. Trotzdem ist aber mit einer weiteren Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Das äußerte sich bislang in Aufteilungen von Märkten. So entschloss sich Fujitsu, im 1,8″-Segment nur noch „Flashfestplatten“ zu entwickeln, und Western Digital übernahm den SSD-Hersteller Silicon Systems. Oft beliefert ein Hersteller auch nur OEM-Kunden direkt, während er seine Laufwerke anderen Herstellern für den Endkundenmarkt mit individueller Verpackung zur Verfügung stellt. Da die Flashchips der teuerste Bestandteil einer SSD sind und viele Konsumenten nicht bereit sind, mehrere tausend Euro für ein Speichermedium auszugeben, werden entsprechend große SSDs nicht im Endkundenmarkt verwendet. Stattdessen hat es sich etabliert, eine SSD als „Systemlaufwerk“ (Zugriffszeitkritische Daten) zu verwenden, während konventionelle Festplatten weiterhin für große Datenmengen verwendet werden, wo die längeren Zugriffszeiten nicht störend sind. Im Mobilbereich sind SSDs in Tablet-PCs und Ultrabooks als alleiniges Systemlaufwerk weit verbreitet.

Hybridfestplatte/HHD[Bearbeiten]

Funktion und Technik[Bearbeiten]

Der Schreib-Lese-Kopf einer alten Festplatte (vor GMR)

Bei der Hybridfestplatte wird eine herkömmliche Festplatte mit einem Solid-State-Speicher kombiniert. Seine nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugänglich machen.

DDR-SDRAM[Bearbeiten]
Hauptartikel: DDR-SDRAM

Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern dem Massenmarkt ab rund 1000 Euro an. Die DTS „Platinum HDD“[14] verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem 1-Gigabyte-DDR-SDRAM-Modul. Dieses ist mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte geeignet, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss das Betriebssystem diese Aufgabe übernehmen. Bisher leistet das nur Windows Vista und Windows 7. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB, die kleinste Ausführung kostet rund 900 Euro. Allerdings wird auch bei „normalen“ Festplatten teilweise DDR/DDR2-SDRAM als Cache verwendet, allerdings nur maximal 128 MB. [15]

Flash-Speicher[Bearbeiten]
Hauptartikel: Flash-Speicher

Die Kombination mit Flash ist bereits verfügbar und wird wegen der Unterstützung durch große Hersteller sowie Mobileignung und Datenerhalt auch zukünftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Absätze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber der gleiche. Dieses Prinzip nennt Intel „Turbo Memory“.[16] Alle anderen Anbieter dieser Technik sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst – meist 256 MB. Intel verwendet die vier- bis achtfache Kapazität. Ob das aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen.

Grundlage beider Varianten ist, dass Flashchips ihre Daten mit geringerer Verzögerung, als die Festplatte selbst liefern können. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung.

Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet hier auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es könnte.

Sie wird nur bei Bedarf – also für selten benutzte Dateien – gestartet. Bei Internet- oder Büroarbeit sind die Hybridkonzepte somit oft lautlos und sehr energiesparend (um 0,3 W). Diese beiden Punkte, zusammen mit der im Stillstand höheren Stoßfestigkeit, sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. „Turbo Memory“ dagegen ist nur für Notebooks verfügbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lösung ist dabei immer an einen "Mainboard-Chipsatz" aus demselben Hause gebunden.

Beide Konzepte benötigen Windows Vista oder neuere Windows-Versionen, die bislang als einzige Betriebssysteme den Flashbereich mit den meistbenötigten Daten belegen können. Alle anderen Betriebssysteme benutzen den Flash-Bereich nicht.

Neuere Hybridfestplatten brauchen nicht mehr das Betriebssystem, um den Flashspeicher zu benutzen. Dieser Vorgang wird von einem Controller in der Festplatte selbst übernommen. Dadurch können solche Festplatten in jedem Betriebssystem in vollem Umfang genutzt werden.

Vor- und Nachteile[Bearbeiten]
Ein herkömmliches Festplattenlaufwerk (links) und eine SSD (rechts)
SSD mit SATA-Anschluss und SandForce-Controller
mSATA-SSD-Modul

Im Folgenden sind die theoretischen Vorteile der Praxis gegenübergestellt.

  • Flash-Verwendung: HHDs sammeln beim Schreiben zunächst 32 MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den über Sondertasten einiger Tastaturen startbaren Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfügung.
    „Turbo Memory“ wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hälfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Das beschleunigt PCs mit 1 GB RAM wirksam auf das Niveau einer 2-GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hälfte des Moduls ungenutzt.
  • Akku-Laufzeit: Um tatsächlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei „Turbo Memory“ eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrminütige statt sekündliche Verzögerung nach einem Festplattenzugriff vor. Wird die Einstellung auf „3 Minuten“ korrigiert, verlängert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung „Windows Hybrid-Festplattenenergiesparmodus“ in den Energieoptionen aktiviert wurde.
  • Geschwindigkeitsgewinn: Viele Benchmarks können die Mehrleistung der Hybride prinzipiell nicht wiedergeben – denn sie verwenden möglichst viele, unterschiedliche und große Dateien, um eine maximale Last zu erzeugen. Diese überschreiten dann die Kapazität des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster – um auszuschließen, dass ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfügbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht, und HHDs und „Turbo Memory“ haben – ähnlich einem Hybridauto unter Volllast – in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; ähnlich den Start häufig benutzter Programme.
    „Turbo Memory“ bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technik. AnandTech untersuchte das zusammen mit Intel[17] und stellte im „PCMark“-Test tatsächlich die vom Hersteller versprochene Leistungsverdopplung fest. Außerhalb des Benchmarks zeigten sich jedoch keine Geschwindigkeitsvorteile, weder beim normalen Arbeiten noch beim Windows-Start oder Herunterfahren.

Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens "Rushmore" im Programm. Diese kombinierte eine herkömmliche Festplatte statt mit – damals eher bremsendem – Flash, mit SD-RAM in Laufwerksgröße. Die reichte bei Einstellung der Serie im Jahre 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen „Cache“ geliefert. Da dieser jedoch auf Strom angewiesen war, rüstete der Hersteller das Produkt mit Batterien gegen Datenverlust aus. Deren Energie ließ im Notfall die Festplatte starten und alle Daten aus dem RAM übernehmen. Wegen der hohen Preise für RAM-Chips waren die Rushmore-Platten für Privatanwender aber praktisch unerschwinglich – sie lagen beim Tausendfachen heutiger Flashchips. Daher war auch die optional verfügbare Grundversion keine Ausnahme: Ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Marktsituation[Bearbeiten]

Nach Samsungs Debüt der ersten HHD[18] im März 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgröße.[19] Zusammen mit Fujitsu, die noch keine HHD ankündigten, gründeten die genannten Hersteller Anfang 2007 die „Hybrid Storage Alliance“,[20] um die Vorteile der neuen Technik besser zu vermarkten.

Seit der Übernahme von Samsungs Festplattensparte durch Seagate im Jahr 2011 war Seagate zwischenzeitlich der einzige Anbieter von HHDs (heutzutage von den Herstellern meist als SSHDs bezeichnet) für den Consumermarkt. Mittlerweile (2014) bietet Seagate Consumer-SSHDs mit Kapazitäten von 500-1000 GB (2,5 Zoll, aktuelle Generation seit Anfang 2013) und 1-4 TB (3,5 Zoll, seit Mitte 2013) an, in denen dem Magnetspeicher jeweils 8 GB MLC-Flashspeicher als reiner Lesecache zur Seite stehen[21] – doppelt so viel wie bei der Vorgängergeneration. Toshiba stellte ebenfalls Mitte 2013 SSHDs im 2,5 Zoll-Format vor, wie bei den Seagate-SSHDs beträgt die Größe des Lesecaches 8GB.[22] Im Enterprise-Segment stellte Seagate Mitte 2013 SAS-SSHDs mit Flash-Cache und bis zu 600GB Kapazität vor und bewirbt diese mit einer um den Faktor 3 verbesserten Leistung gegenüber konventionellen 15.000rpm-Festplatten.[23]

Ende 2013 stellte Western Digital ein Laufwerk namens „WD Black² Dual Drive“ vor – eine konventionelle 1 TB-Magnetfestplatte und 120 GB Flashspeicher in einem 2,5″-Gehäuse. Da der Flashspeicher allerdings separat ansprechbar ist und nicht als Cache der Festplatte verwendet wird, kann man die WD Black² nicht als Hybridfestplatte bezeichnen. Um sowohl auf den Flashspeicher als auch auf die Magnetfestplatte zugreifen zu können, wird ein spezieller Treiber benötigt, ohne den ausschließlich auf den Flashspeicher zugegriffen werden kann.[24]

Mit wachsender Kapazität und Geschwindigkeit der Flashcaches bei sinkenden Flash-Preisen und gleichzeitig stagnierender Entwicklung im Bereich der Magnetfestplatten sind Preis und Leistung der SSHDs im Vergleich zu konventionellen HDDs deutlich attraktiver geworden. Mittlerweile verbauen viele Computerhersteller – allen voran Lenovo – SSHDs vor allem in tragbaren Computern.[25] Dort konkurrieren sie im hochpreisigen Segment häufig mit reinen SSDs oder SSD-HDD-Kombinationen (teilweise mit Chipsatz-Caching à la Intel Smart Response, siehe nächster Absatz) und in den unteren Preislagen meist mit reinen HDDs.

Intels Lösung wurde mit der Centrino-Generation „Santa Rosa“ im Mai 2007 eingeführt. Sony, HP, Dell und MSI nahmen jedoch Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen. Nach der Vorstellung von Turbo Memory 2.0 (2008)[26] ließ Intel das Turbo-Memory-Konzept ruhen. Stattdessen wurde 2011 zusammen mit dem Chipsatz Z68 die „Intel Smart Response Technology“ vorgestellt, die die Verwendung einer SATA-SSD als Lese- und Schreibcache eines anderen SATA-Geräts ermöglicht.[27] Der Flash-Cache wird hierbei im Gegensatz zu „echten“ SSHDs von einem Treiber auf Betriebssystemebene verwaltet. Seit der Intel-7-Serie (Mitte 2012) sind die Z-, H- und Qx7-Chipsätze der jeweiligen Chipsatz-Generation Smart-Response-fähig.[28]

Andere Hersteller wie OCZ (Synapse Cache, Ende 2011) und Sandisk (ReadyCache, Ende 2012) entwickelten ähnliche Konzepte in Form einer proprietären Software, im Verkauf gebündelt mit einer kleinen SSD als Cache-Datenträger.[29][30] Angesichts des starken Preisverfalls bei SSDs[31] haben diese Konzepte mittlerweile allerdings an Bedeutung verloren.

Betriebssystemunterstützung von Hybrid-Flashspeichern[Bearbeiten]

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es spezielle Dateisysteme, die an die Besonderheiten von rohen Flashspeichern angepasst sind, so etwa JFFS2, UBIFS und YAFFS; für heute übliche SSDs mit FTL (Flash Translation Layer) und integriertem Wear-Levelling werden aber wie etwa auch für USB-Sticks einfach konventionelle Dateisysteme wie ext3 genutzt, teilweise aber mit optimierten Schreibzugriffseinstellungen (oder aber besser geeignete Dateisysteme wie ZFS, btrfs, NILFS oder LogFS). Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritätskontrolle erreicht werden.

Windows Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystemdateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben. Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet dazu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Dabei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee.[32] Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist das jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin aktiv, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 Mebibyte, maximal verwendet Vista 4 Gibibyte. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon seit langem möglich, indem der Flashspeicher als Auslagerungsspeicher (englisch Swapping) eingehangen wird.

Windows XP bietet von Haus aus keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“[33] jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern, um aber tatsächlich einen Geschwindigkeitsgewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Leistungslevel erreichen. Das Programm kann – anders als Vista – auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits einen USB 2.0-Port haben, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist.

Reine Flash-Laufwerke[Bearbeiten]

Funktion und Technik[Bearbeiten]

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Größe hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Leistung. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schützen und – im zweiten Fall – Solidität zu vermitteln. Das hebt dafür den Vorteil des geringen Gewichts und teilweise der Stoßfestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit und Energieeffizienz.

Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausführung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten, beim Schreiben zeigte sich bis 2009 jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden konnte – insbesondere die MLC-basierten Flash-SSDs lagen bei kontinuierlichen Schreibvorgängen unter dem Niveau normaler Festplatten.[34] Das hat sich seitdem umgekehrt, die schnellsten Festplatten schreiben zumindest messbar langsamer als die langsamsten verfügbaren Flash-SSDs[35] Bei reinen Lesevorgängen[34] aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, waren die SSDs bereits überlegen.[36] In einer Desktopumgebung wird meist gelesen, so dass hier Schreibschwächen weniger ins Gewicht fallen.

Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verwenden die neusten SSDs bereits einen Zehn-Kanal-Controller.[37]

Architektur-Vergleich
SLC ist zu MLC NAND ist zu NOR
10× so haltbar 10× so haltbar
3× so schnell schreibend
vergleichbar lesend
4× so schnell schreibend
5× so langsam lesend
halb so kompakt bis 16× so kompakt
30 % teurer 30 % günstiger
Folgende Technologien sollen die Vorteile von NAND und NOR vereinen: OneNAND (Samsung), mDOC (Sandisk) und ORNAND (Spansion).

Erst diese Beschleunigung gleicht ein systembedingtes Problem aus: die interne Organisation. Flash-SSDs sind in Speicherblöcke unterteilt. Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen Write Amplification genannt. Demzufolge wird also das Schreiben desto schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatsächlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blöcken geändert – die Nutzrate entspricht der Schreibrate.[38][39][40]

Der Versuch, diesen Effekt auf Betriebssystemebene aufzuheben, setzte sich nicht durch. Die „Managed Flash Technology“ von EasyCo. ordnete dazu die Schreibkommandos so, dass sie möglichst zusammenhängend statt verteilt geschehen. Vom Hardwareprodukt unabhängig, war sie für den Heimgebrauch aber zu kostenintensiv. Stattdessen ergänzten die Hersteller einen SDRAM-Zwischenspeicher für den Controller und führten eine umfassende Optimierung der Firmwares durch. Diese spielt noch vor dem Controller selbst die entscheidende Rolle bei der Leistungsfähigkeit eines Laufwerks. Dazu nutzt sie, wie zuvor bei konventionellen Festplatten, möglichst effizient den SDRAM-Chip, verwaltet darin allerdings die Daten zur Suche nach dem Schreibbereich, um Geschwindigkeit und Nutzungsverteilung zu optimieren. Die eigentliche Datenzwischenspeicherung erfolgt meist im noch schnelleren SRAM des SSD-Controllerchips.[41]

Ähnlich wie konventionelle Festplatten bringen auch Flashfestplatten bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerktypen spielt dabei die Suche nach den nur wenigen freien Speicherbereichen die Hauptrolle. Der oben beschriebene Effekt der „Write Amplification“ verstärkt das noch auf Seiten der Flashfestplatten. Daher zweigen deren Hersteller einige Prozent der Speicherkapazität für eine „Spare Area“ als Leistungs- und Verschleißreserve ab.

Heute eignen sich Flashfestplatten besonders für den Mobileinsatz, leistungsorientierte Desktops und wenige Server. Für letztere bieten einige Hersteller Serien mit SLC-Speicher an, um der viel höheren Schreibbelastung gerecht zu werden. MLC-Chips haben mit 10.000 Zyklen je Zelle ein Zehntel der Wiederbeschreibbarkeit der SLC-Technik.

Marktsituation[Bearbeiten]

Bereits 1996 führte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Im März 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten – und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt für erschwingliche Flashfestplatten zu eröffnen. Mit 600 $ für 32 GB gelang das zwar noch nicht, allerdings eroberte Samsung die Marktführerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Großabnehmer und auch Mtron im oberen SSD-Segment steuert – mit eigenem Controller – ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielsetzung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal 2008 erschienen die Vertreter der zweiten Generation. Im selben Jahr wechselten viele Hersteller von SLC zu MLC-Speicherchips, um die Preise attraktiver zu gestalten. Bei den ersten Produkten dieser Gattung kam es jedoch häufiger zu unpraktikablen Leistungswerten.[42]

2009 folgten Produkte mit stark verbesserter Leistung, die in einigen Leistungspunkten sogar SLC-Laufwerke übertrafen. Seitdem erfolgen Preissenkungen[43][44] meist parallel zu einer Strukturverkleinerung in der Flashchip-Fertigung.[45]

Da die Flashfestplatten im Vergleich zu herkömmlichen Festplatten aufgrund des Wegfalls der empfindlichen Mechanik erheblich stoßfester sind, eignen sich SSDs insbesondere für den Einsatz in mobilen Computern und werden seit 2012 zunehmend auch in Netbooks sowie Notebooks serienmäßig eingebaut.

In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenübergestellt.

konventionelle Festplatte kommerzielle Flash-SSD industrielle Flash-SSD
max. Kapazität 6 TB[46] 2 TB > 2 TB
Betriebstemperatur 5 bis 55 °C 0 bis 70 °C −40 bis 85 °C
Schreibzyklen[47] 10 Mrd. (3 Jahre MTBF) 3.000–100.000 / Flashzelle 1–5 Mio. / Flashzelle („handverlesene“ Chips)
Datenerhalt keine Angaben 10 Jahre 10 Jahre
Flugschreiber-geeignet nein nein ja
Sicheres Löschen ja teilweise ja
S.M.A.R.T. ja teilweise ja

Flash-Besonderheiten[Bearbeiten]

Verschleiß- und Ausfallvorhersage (S.M.A.R.T.)[Bearbeiten]

Konventionelle und Flashfestplatten verschleißen mit der Zeit. Während sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgänge von intakten Zellen sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 3.000 (MLC 25nm) und 100.000 (SLC) Schreibvorgänge absolvieren. Danach kann sie ihren Inhalt vergessen. Flashspeicher wären so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren Wear-Levelling entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird. Die dafür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungsverfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte häufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatenträger auch gar keinen.[48] Hier können dann Software-Lösungen wie in Windows Vista oder Dateisysteme wie JFFS2 oder das Flash-Friendly File System unter Linux aushelfen.

Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahekommt oder sie übertrifft.[49][50] Ein Nebeneffekt aller Verteilungsverfahren ist, dass kein sicheres Löschen mehr möglich ist. Der Hintergrund wird in den Abschnitten Sicheres Löschen und Defragmentierung beschrieben.

Eine Ausfallvorhersage wie bei konventionellen Festplatten durch S.M.A.R.T. ist auch bei nahezu allen Flash-SSDs enthalten, allerdings noch nicht mit allen Programmen möglich. Die derzeitige Situation ist durch den Standard selbst begründet. Er umfasst alleinig die Kommunikation zum Laufwerk, um die S.M.A.R.T.-Werte auszulesen.[51] Ihre Bedeutung und Skalierung sind nicht festgeschrieben. Für konventionelle Festplatten ist über die Jahre allerdings ein De-facto-Standard entstanden, der für Flash-SSDs derzeit schlicht fehlt.
Die Prüfung konzentriert sich auf die Anzahl der vorgenommenen Löschzyklen und das Vorhandensein genügender Reserveblöcke.[52] Wurden hier die vorgesehenen Grenzen übertreten, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus über. Da bei guten „Wear-Levelling“-Verfahren alle normalen Sektoren zu ähnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.

Weitere angewandte Verfahren, die Lebensdauer zu erhöhen, liegen im Vermeiden von unnötigem Schreiben. Hierzu zählt das Native Command Queuing (NCQ), das bewirkt, denselben mehrfach vorhandenen Datenblock im Cache erst in seiner jüngsten Version zu schreiben und die obsolet gewordenen Kopien aus dem Cache zu verwerfen. Datenkompression der zu schreibenden Daten im Controller der SSD bewirkt, dass einzelne Blöcke nicht beschrieben werden müssen. Bei bereits komprimierten Daten funktioniert das nicht, da die Datenmenge nicht weiter verkleinert werden kann. Werden weitere Datenblöcke durch länger ausfallende Inhalte belegt, so werden diese, wenn nicht anders zu verwalten, mit S.M.A.R.T. als unbenutzbar gekennzeichnet.[53][54][55]

Methoden der Nutzungsverteilung[Bearbeiten]

Dateien werden immer als Bit-Folge geschrieben. Heute enthalten MLC-Flashzellen üblicherweise zwei Bits und sind in sogenannte Seiten oder Blöcke (englisch pages) mit je 4096 Byte (= 4 Kibibyte,KiB) Größe zusammengefasst.[56] Angesprochen werden von der Steuereinheit immer ganze Speicherblöcke. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst – zu einem Erasable Block. Dieser enthält 64 oder 128 Blöcke und ist somit 256 oder 512 KiB groß. Bei jeder Änderung in einem seiner Blöcke wird dieser zunächst nicht gelöscht, sondern vorerst als nicht mehr aktuell markiert. Geschrieben wird in den nächsten freien Block desselben Erasable Block. Erst wenn alle Blöcke eines Erasable Block nicht mehr aktuell sind, wird dieser einmal ganz gelöscht. Somit müssen bei jedem geänderten Byte die bisherigen Blöcke mit der vorzunehmenden Änderung in die nächsten kopiert werden. Das lässt die zu schreibenden Daten von wenigen geänderten Byte auf mehrere Kilobyte ansteigen. Diese Vervielfachung wird daher auch als Write Amplification bezeichnet. Damit entstünde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal überarbeitet und gespeichert.

Schreibvorgang 1 2 3 4   weiter wie 2
Block            
1   Datei.txt unaktuell unaktuell löschen Datei.txt
2   leer Datei.txt unaktuell löschen leer
3   leer leer Datei.txt löschen leer
4   leer leer leer leer leer
5  
Legende:
Ein „erasable“ Block: umfasst hier der Übersicht wegen nur drei Speicherblöcke. Jeder Block umfasst 2 oder 4 Kibibyte.
Dynamic Wear Levelling
Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewählt. Das ist vergleichsweise einfach im Controller umzusetzen, hat aber den Nachteil, dass bei gut gefülltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenüber fehlendem Wear-Levelling.
Static Wear Levelling
Soll ein Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewählt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Das erfordert einen etwas komplexeren Controller, führt aber zu sehr gleichmäßiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenüber fehlendem Wear-Levelling.
Defekte Blöcke
Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.

Auslagerungsspeicher auf Flash-SSDs[Bearbeiten]

Zur Bewertung der Eignung von Flashlaufwerken für die Aufnahme des Auslagerungsspeichers (oder Auslagerungsdatei) eines Betriebssystems eignet sich am besten eine Analyse der Zugriffe auf diesen Speicher. Microsoft hat eine solche während seiner Arbeit an Windows 7 durchgeführt.[57] Die Auswertung ergab ein Zugriffsmuster aus kurzem, verteiltem Lesen und längerem, zusammenhängendem Schreiben. Das entspricht den Stärken von Flashspeichern. Lesezugriffe überstiegen Schreibvorgänge um das Vierzigfache, während ca. zwei Drittel der Lesezugriffe bis 4 KB Größe hatten und etwa zwei Drittel der Schreibzugriffe mindestens 128 KB Länge hatten. Da das etwa einem Erasable Block entspricht, gibt es laut Microsoft kaum geeignetere Anwendungen für Flashlaufwerke als den Auslagerungsspeicher. Dennoch besitzen nicht alle MLC-basierenden Produkte eine hinreichende Geschwindigkeit, so dass ein Studium der konkreten Leistungsfähigkeit sinnvoll ist.[58]

Sicheres Löschen[Bearbeiten]

Hauptartikel: Datenvernichtung

Gewöhnliche Betriebssysteme löschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Das beschleunigt den Löschvorgang, ermöglicht aber auch eine Wiederherstellung der Datei. Um dies (und damit Spionage) zu verhindern, gibt es Programme, welche die Dateien, d.h. ihre Inhalte, tatsächlich löschen sollen. Dazu weisen diese Programme an, alle zur Datei gehörenden Sektoren mehrfach – ggf. mit Zufallsdaten – zu überschreiben. Festplatten können so sicher gelöscht werden.

Die von Flashspeichern nach außen gemeldeten Sektoren haben aber nichts mehr mit den tatsächlichen Speicherorten zu tun.[40] Das liegt an ihrer Nutzungsverteilung, welche Schreibvorgänge auf die bisher am wenigsten benutzten Blöcke leitet, welche höchstens zufällig die sind, in denen die Datei steht. Deren Inhalt bliebe somit bestehen, während die Überschreibversuche an anderer Stelle gespeichert würden. Nach außen bleiben die vom Programm adressierten Sektoren stimmig: Liest man sie aus, erhält man die neuen Daten. Die Umverteilung geschieht unmerklich für das Betriebssystem und darauf laufende Programme im SSD-Controllerchip. Die Umverteilung findet umso mehr statt, je mehr nach dem letzten Formatieren nicht beschriebene, oder durch TRIM wieder freigegebene Sektoren auf dem Laufwerk vorhanden sind – ein gut gefülltes Laufwerk ist so betrachtet ein „sichereres“.

Um dieses Sicherheitsleck zu nutzen und auf die nicht physikalisch gelöschte Datei zugreifen zu können, müsste aber eine Firmware programmiert und installiert werden, die alle Blöcke auslesen kann. Mit Installation dieser würde jedoch wahrscheinlich die Information zur bisherigen Nutzungsverteilung verlorengehen. Somit fehlte das Wissen, welche Blöcke zu einer durch scheinbares Überschreiben gelöschten Datei in welcher Reihenfolge gehören. Kryptographiehersteller warnen trotzdem vor dem Einsatz von SSDs, da zumindest Schlüssel auffindbar sein könnten.

Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorübergehend die Nutzungsverteilung abschalten kann und so ein sicheres Löschen („Secure Erase“) ermöglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems oder ATP. Diese enthalten dann auch Löschalgorithmen nach US-Air-Force- oder Navy-Standard.

Für den Heimgebrauch gibt es keine vollständige Löschmöglichkeit. Das liegt am nicht ansprechbaren Reservespeicher („Spare Area“)[59] der SSDs, welcher nur dem Controller zugänglich ist. Jener Bereich dient sowohl als Ruheplatz der abgenutztesten Sektoren, als auch der Geschwindigkeitssteigerung. Moderne Laufwerke bieten ein sicheres Löschen, welches die SSD in den Auslieferungzustand zurückversetzt und auch Reserveblöcke überschreibt.

Defragmentierung (Windows)[Bearbeiten]

Eine Defragmentierung ist aufgrund der geringen Lesezugriffszeiten nicht nötig. Es werden Speicherblöcke adressiert. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren,[60] während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt.[61] Kingston hingegen rät stets vom Defragmentieren ab – ganz gleich, ob für das SLC- oder MLC-Format.[62] Intel rät generell nicht zum Defragmentieren ihrer SSDs. Da durch ihre Technik SSDs nach der überwiegenden Mehrheit nicht defragmentiert werden sollen, da ständiges Schreiben sogar die Lebensdauer der Disks verringern kann, empfiehlt Microsoft neben dem Abstellen der Defragmentierung auch das Ausschalten aller Software-Cache-Systeme wie Prefetch und Superfetch. Es wird empfohlen, automatische Defragmentierungsprogramme abzuschalten; speziell unter dem Dateisystem NTFS bei Windows gibt es daher eine Anleitung, wie dies geschehen soll.

Alle gängigen Betriebssysteme (z. B. Windows ab Version 7) erkennen, wenn eine SSD eingebaut ist, und deaktivieren alle spezifischen HDD-Merkmale automatisch. Es wird allerdings empfohlen, alle Einstellungen zu kontrollieren.[63]

Leistungsverlust bei Verwendung (TRIM und Garbage Collection)[Bearbeiten]

Hintergrund[Bearbeiten]

Das Dateisystem streicht „gelöschte“ Dateien nur aus dem Inhaltsverzeichnis, die eigentliche Datei aber bleibt weiter gespeichert. Dadurch kann sie wiederhergestellt werden, und auch das „Löschen“ großer Datenmengen ist sehr schnell möglich. Beim nächsten Schreiben auf einen so freigestellten Bereich muss der bisherige Inhalt demzufolge aber erst gelöscht werden. Nach einiger Zeit der Nutzung ist damit jeder Bereich des Laufwerks mit entweder aktuellen oder noch nicht tatsächlich gelöschten Inhalten belegt. Bei Festplatten war das kein Problem, da sie ihre Magnetisierungszustände direkt ineinander übergehen lassen können. (Für sie hätte das tatsächliche Löschen der Dateien damit sogar einer Ressourcenverschwendung entsprochen.) Flashspeicher hingegen müssen die noch gefüllten Flashzellen erst leeren, um sie im zweiten Durchgang mit der neuen Datei zu beschreiben. Diese doppelte Arbeit ist anhand einer dann bis zu doppelt so langen Schreibzeit nachvollziehbar.[64] Davon sind allerdings nur verteilte, kurze Schreibvorgänge betroffen, welche kleiner als Erasable Blocks sind – denn durch die Befüllung mit aktuellen und noch nicht gelöschten Daten sind deren Einzelblöcke gefüllt, wodurch bei jeder Änderung der gesamte "Erasable Block" neu geschrieben werden muss – inklusive der eigentlich „gelöschten“ Dateifragmente. Selbst in diesen Fällen bleiben die Geschwindigkeiten aber oftmals noch oberhalb des – gleichbleibenden – Niveaus konventioneller Festplatten.

Maßnahmen[Bearbeiten]

Um dieser Situation abzuhelfen, können SSDs ab Mitte 2009 die freigestellten Bereiche schon vor einer neuerlichen Verwendung löschen. Das findet einerseits durch eine Logik im Laufwerk statt (Garbage Collection) und kann andererseits durch das Betriebssystem gesteuert werden (via TRIM-Befehl). Ersteres bedarf nur der Umsetzung in der Laufwerksfirmware, letzteres erfordert die Unterstützung eines neuen ATA-Befehls vom steuernden Betriebssystem, des empfangenden Laufwerks und – falls vorhanden – des weiterleitenden RAID-Controllers.

Beide Vorgehensweisen betreffen aber weder das Überschreiben einer Datei noch den Fall nahezu gefüllter Laufwerke (denn hier gibt es kaum freie Bereiche), sondern ermöglichen nur, die freigestellten Bereiche schreibfertig vorzubereiten.[65] Die Vorbereitung entspricht jedoch nicht einem sofortigen Löschen beim Leeren des Papierkorbs. Dieses findet zu einem nicht vorhersagbaren Zeitpunkt statt, spätestens dann beim nächsten Beschreiben des Bereiches. Er wird direkt gelöscht und beschrieben, das vorherige Auslesen wird erspart: Daraus entsteht der Geschwindigkeitsvorteil.

Der bleibende Vorteil von TRIM liegt in der effektiveren Vermeidung des Neuschreibens bereits aus dem Papierkorb gelöschter Dateien. Das schont die Flashzellen. Die Unterstützung von TRIM durch das installierte Laufwerk wird etwa durch CrystalDiskInfo[66] in der Zeile Supported Features sichtbar, die Zeile Firmware zeigt die installierte Firmwareversion.

Controller Garbage Collection TRIM-Unterstützung
Indilinx Barefoot und ECO[67] ab Version 1916 ab Version 1819
Intel X-25M G1 immer enthalten nicht verfügbar
Intel X-25M G2 immer enthalten ab Version 02HD
Samsung RBB[68] ab 1901Q / 19C1Q ab 1901Q / 19C1Q
SandForce SF-1x00/2x00[69] immer enthalten immer enthalten
Toshiba Daikoku 2[70] immer enthalten immer enthalten

Die Funktionsweise der Garbage Collection wird von den Herstellern nicht veröffentlicht, funktioniert aber wahrscheinlich über die Nutzung der Reservesektoren in einem Laufwerk. (Deren Zahl gibt der Over-Provisioning Factor an, liegt er bei 1,1, verfügt das Laufwerk über 10 Prozent davon. Dieser Bereich wird auch als „Spare Area“ bezeichnet.) Das Laufwerk selbst kann nicht wissen, welche Sektoren zum Überschreiben freigestellte Daten beinhalten. Das erfährt es aber, wenn Sektoren überschrieben werden sollen: deren bisheriger Inhalt ist offensichtlich freigestellt. Daher leitet es die neuen Daten in die leeren Reservesektoren um. Das ist schnell, und der Controller weiß nun, dass die ursprünglich angesteuerten Sektoren wirklich nicht mehr gebraucht werden. Diese löscht er nun im Leerlauf, wodurch sie frei werden. Diese Vorgehensweise behebt nicht die Ursache des Problems, großenteils aber dessen Auswirkungen.[71] Zum Löschen der Sektoren benötigt das Laufwerk jedoch Leerlaufzeit.

Laufwerke ohne automatische Garbage Collection oder TRIM-Unterstützung sind nur durch Programme wie Secure Erase[72] auf die Werksleistung rücksetzbar. Dabei wird das Dateisystem gelöscht, was somit auch alle von ihm freigestellten, aber noch alte Dateien beinhaltenden Blöcke freigibt.

Leistungsverluste unter Windows[Bearbeiten]

Weitere Leistungsverluste treten unter Umständen auf, wenn Windows die Defragmentierung, Prefetcher und SuperFetch nach der Installation der SSD nicht selbstständig deaktiviert. Dieser Effekt könnte etwa beim Kopieren einer bestehenden Installation von Festplatte auf SSD entstehen. Für die volle Leistung einer SSD sollte man diese Funktionen daher gegebenenfalls manuell deaktivieren.

Prefetch bringt nur bei Speichermedien mit relativ hohen Zugriffszeiten, z. B. HDDs, einen spürbaren Vorteil. Das ursprüngliche Problem, das der Prefetcher beheben sollte, ist das Aufrufen von unterschiedlichen Segmenten der gleichen Datei zu unterschiedlichen Zeitpunkten. Der Prefetcher zeichnet den Bootvorgang des Betriebssystems und den Startvorgang von Programmen auf. Anhand dieser Informationen erstellt das Betriebssystem Ablaufverfolgungsdateien (trace files), so dass auf Dateien effizienter zugegriffen werden kann, z. B. benötigte Segmente einer Datei am Stück eingelesen werden. Bei SSDs ist dieser Geschwindigkeitsvorteil dank der schnellen Zugriffszeiten kaum bemerkbar. Allerdings werden beim Prefetchen über die Zeit eine Menge Daten (trace files) gespeichert und ggf. aktualisiert. Daraus resultieren unnötige Schreibzugriffe und damit eine verkürzte Lebenszeit der SSD.

Ebenso entfällt der Vorteil von SuperFetch (ReadyBoost), bei dem häufig verwendete Daten anhand von Erfahrungswerten in den RAM geladen werden, bevor sie benötigt werden. Die Zugriffszeiten und Datenübertragungsraten von SSDs sind so kurz, dass es verglichen mit RAM keinen spürbaren Unterschied mehr macht, messbar ist dieser nur im Bereich von Mikrosekunden. Allerdings ist das "SuperFetch" auch nicht schädlich für die SSD oder die Arbeitsspeicherauslastung, da der dafür reservierte Bereich im RAM sofort verworfen und freigegeben wird, sobald eine Anwendung diesen benötigt.

Windows 7 und 8 erkennen bei der Installation, um welche Art von Datenträger es sich handelt. So schaltet Windows sowohl SuperFetch als auch Prefetch auf SSD-Datenträgern aus. Bei Parallelnutzung von SSD und HDD deaktiviert Windows diese Funktionen nur für die SSD und nicht etwa auch für die magnetische Festplatte (HDD).

Ausrichtung[Bearbeiten]

Die kleinste beschreibbare Einheit eines Flashspeichers ist die Speicherseite (auch englisch page genannt). Die kleinste beschreibbare Einheit in einem Dateisystem wird Zuordnungseinheit (oder englisch cluster) genannt. Diese ist bei der Formatierung idealerweise auf die Größe einer Seite einzustellen, derzeit sind das 4 Kibibyte. Überstiege die Größe einer Zuordnungseinheit jene der Speicherseite, müssten sonst bei jeder Änderung gleich mehrere Seiten unnötig neu geschrieben werden.

Einen zweiten Schritt zur optimalen Datenstruktur stellt die Ausrichtung (auch englisch alignment genannt) von Partitionen dar. Beginnt eine Partition inmitten eines Erasable Blocks, verschieben sich auch die Zuordnungseinheiten des Dateisystems, manche erstrecken sich dann über eine Blockgrenze. Für jede Änderung dieser Einheiten werden demzufolge beide Blöcke beschrieben, und demzufolge auch öfters gelöscht. Der Effekt dieses Mehraufwandes ist produktbezogen allerdings sehr unterschiedlich[73] und reicht von kaum messbar bis zur Drittelung der Schreibleistung bei zufälligen Zugriffen. Sämtliche sequenziellen Schreib- und alle Lesezugriffe sind vom "Alignment" nicht betroffen.

Um eine Partition an den Grenzen der Erasable Blocks auszurichten, wäre die Blockgröße in Erfahrung zu bringen. Software kann diese jedoch nicht auslesen. Alle seit 2009 gängigen MLC-Laufwerke verwenden jedoch durchgängig Größen von 512 Kibibyte. Ein manuelles Nachmessen[74] ist daher selten nötig.

Die Angabe zum "Alignment" im AS-SSD-Benchmark[75] wird anhand der verwendeten Zuordnungseinheit durchgeführt. Wenn das Programm das "Alignment" als „OK“ ansieht, heißt es nicht, dass die Partition direkt an der Grenze des Erasable Blocks ausgerichtet ist, sondern dass sich keine Zuordnungseinheit des Dateisystems gleichzeitig in zwei Blöcken befindet. Da der erste Erase Block immer bei 0 Byte anfängt, reicht es aus, wenn die Startposition jeder Partition durch die Größe der Zuordnungseinheiten (typischerweise 4 KiB) teilbar ist.

Im Zweifel kann auch direkt ein größerer Wert verwendet werden. Dem folgend, verwenden Windows Vista und 7 gleich eine Ausrichtung an 1 Mebibyte. Dieser Wert ist durch alle aktuellen Erasable-Block-Größen ohne Rest teilbar und bewirkt demnach für jede SSD eine korrekte Ausrichtung. Linux-Nutzer müssen zur Ausrichtung verschiedene Faktoren berücksichtigen,[76] Nutzer vergangener Windows-Versionen können entweder mit den Installations/Recovery-CDs von Vista und 7 eine vorbereitete Partition einrichten oder diese per Bordwerkzeug selbst erstellen.[77] Ohne manuelles Vorgehen starten die älteren Windowsausgaben die Partitionen bei 31,5 Kibibyte und werden damit nicht an den gängigen Erasable Blocks ausgerichtet.

Der "Offset" bestehender Partitionen ist in Windows auf der Eingabeaufforderung mit dem Diskpart-Befehl list partition nach Auswahl der SSD mit select disk <Nummer> ersichtlich. Die Nummer ist anhand der Datenträgergröße mittels list disk bestimmbar. Die Angabe hier ist allerdings ungenau, da sie auf ganze Kilobyte gerundet wird. Besser ist es daher, zunächst select partition <Nummer> und danach detail partition aufzurufen. Alternativ findet sich die gleiche Information auch mittels msinfo32 bei Systemübersicht\Komponenten\Speicher\Datenträger als Partitionstartoffset.

SSD-Verfahren im Vergleich[Bearbeiten]

Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgeführt, der High-end-Sektor der Solid-State-Drives im Serverbereich bleibt dabei unberücksichtigt. Ein Video-Vergleich ist ebenfalls verfügbar.[78]

  MLC-NAND-Flash-Laufwerk
1,0″ bis 3,5″
RAM-Disk
als Teil des Arbeitsspeichers
Festplatte
1,0″ bis 3,5″
Größe (keine Raidlaufwerke) bis 1 TB bis 32 GB je Modul bis 6 TB
Preis pro TB (Stand April 2014) ab ≈ 370 €[7] ab ≈ 3950 €[79] ab ≈ 27 €[8]
Anschluss S-ATA, P-ATA, mSATA, PCIe hauptsächlich DIMM-Connector S-ATA, P-ATA, SCSI, SAS
Lesen (kein RAID) bis 510 MB/s[80] bis 51200 MB/s[81] bis ca. 160 MB/s[82]
Schreiben (kein RAID) bis 490 MB/s[80] bis 51200 MB/s[81] bis ca. 160 MB/s[82]
Mittlere Zugriffszeit lesen 0,2 ms 0,000 02 ms ab 3,5 ms
Mittlere Zugriffszeit schreiben 0,4 ms 0,000 02 ms ab 3,5 ms
Überschreibbar (Zyklen) 3 bis 10 tausendmal (MLC) > 1015 [83] ca. 10 Mrd. (3 Jahre) [84]
Lagerbar bei −45…85 °C −25…85 °C −40…70 °C
Stoßfestigkeit – Betrieb[85] 1500 g ca. 1000 g (rüttelfest verlötet) 60 g
Stoßfestigkeit – Lagerung 1500 g ca. 1000 g (ähnlich SSD) 350 g
Verbrauch – Ruhe 0,1…1,3 W 1 W pro SDRAM-Modul 4 W und höher
Verbrauch – Zugriff 0,5…5,8 W[86] 8 W pro SDRAM-Modul 6 W und höher
Verhalten beim PC-Ausschalten problemlos Datenverlust, falls keine Sicherung auf SSD/Festplatte stattfindet problemlos
Verhalten bei Stromausfall mit Stützkondensator auf SSD-Ebene problemlos[87]
ohne Stützkondensator Datenverlust möglich
Datenverlust Datenverlust möglich
Lautlos ja ja nein
Bemerkungen unterstützen meistens S.M.A.R.T. Größe begrenzt durch Hauptplatine oder zusätzlicher Adapter nötig, nicht bootfähig unterstützen S.M.A.R.T.

Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich niedriger liegen.

Bei Betriebssystem- und Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten überlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufällig verteilten Zugriffen aufrechtzuerhalten.

Weblinks[Bearbeiten]

 Commons: Solid-State-Drives – Sammlung von Bildern, Videos und Audiodateien
 Commons: Solid-State-Speichermedien – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten]

  1. AnandTech: A TLC Refresher (Samsung SSD 840 (250GB) Review)
  2.  Vittorio Ferretti: Wörterbuch der Elektronik, Datentechnik, Telekommunikation und Medien: Deutsch-Englisch. Birkhäuser, 2004, ISBN 9783540406938, S. 367.
  3. Marvell & SandForce: Firmwareupdates für SSDs. hardware-infos.com, 20. Mai 2010, abgerufen am 3. Februar 2012.
  4. Schnelle Fehlerbehebung - Firmware-Update für Crucials M4. computerbase.de, 14. Januar 2012, abgerufen am 14. April 2012.
  5. Intels SSD-320-Problem trotz Firmware-Update noch vorhanden. ht4u.de, 22. August 2011, abgerufen am 14. April 2012.
  6. Not All SSDs Are Created Equal: The Story Continues. owc-Blog, 18. März 2011, abgerufen am 14. April 2012 (englisch).
  7. a b Preisvergleich (€/GB) SSDs 120-256GB. geizhals.at, 5. Mai 2013, abgerufen am 5. Mai 2013.
  8. a b Preisvergleich (€/GB) Festplatten 2TB. geizhals.at, 5. Mai 2013, abgerufen am 5. Mai 2013.
  9. SSHD, abgerufen am 16. Dezember 2013.
  10. StorageTek Forum 2004 conference guide. Thirty-Five Years of Innovation. StorageTek, Oktober 2004, S. 6, abgerufen am 17. Oktober 2010 (PDF; 797 kB, englisch).
  11.  Trina MacDonald: Solid-state storage not just a flash in the pan. In: Storage. 6, Nr. 9, 2007 (PDF, abgerufen am 22. Oktober 2011).
  12. fusion io – Leistung im Vergleich zu normalen SLC-Flash-SSDs
  13. fusion-io SSD Datenblatt. siehe "ioDrive Octal Capacity". INCOM Storage, abgerufen am 24. Juni 2013.
  14. DTS „Platinum HDD“
  15. Hier und hier ist auf der Platine der Seagate ST3000DM001 jeweils der Chip Winbond W9751G6JB-25 zu erkennen, dabei handelt es sich um einen DDR2-SDRAM-Chip: Datenblatt (zur Bedeutung des -25 am Ende siehe Seite 4; PDF; 1,5 MB)
  16. Intel „Turbo Memory“
  17. Beschleunigt „Turbo Memory“ wirklich?
  18. HHD-Serie Samsung
  19. HHD-Serie Seagate
  20. „Hybrid Storage Alliance“
  21. Seagate SSHD-Spezifikationen
  22. News auf Golem.de zu neuen SSHDs von Toshiba
  23. Seagate Pressemitteilung Enterprise-SSHDs
  24. FAQ zur WD Black Dual
  25. Marktübersicht Notebooks mit SSHD auf Geizhals.de, abgerufen am 20. Juni 2014
  26. Intel „Turbo Memory“ 2.0
  27. Vorstellung des Z68-Chipsatzes mit Smart Response
  28. Intel-Produktseite zur Smart-Response-Technologie
  29. OCZ Synapse Cache Produktseite
  30. SanDisk ReadyCache Produktseite
  31. Preisentwicklung der Samsung 840 Pro auf Geizhals.de als Beispiel für den Preisverfall der SSDs; abgerufen am 20. Juni 2014
  32. Was bringt „ReadyBoost“? Computerbase.de
  33. eBoostr – ReadyBoost-Alternative für Windows XP
  34. a b FC-Test – continued
  35. Reale Schreibgeschwindigkeit schneller Festplatten und SSDs von 2010
  36. Anandtech: Multitasking
  37. Im Inneren der X25-M SSD: 10-Kanal Flash
  38. Patent DE10349595: Verfahren zum Schreiben von Speichersektoren in einem blockweise löschbaren Speicher.
  39. Patent EP1514171: Verfahren zur Wiederherstellung von Verwaltungsdatensätzen eines blockweise löschbaren Speichers.
  40. a b Patent DE102005001038: Verfahren zur Umsetzung von logischen in reale Blockadressen in Flashspeichern.
  41. SSD-Cachegestaltung
  42. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=17 Zu leistungsarme erste MLC-Laufwerke
  43. Überblick zu Preisen aktueller Flash-SSD im Computerbase-Forum [1]
  44. Eine Übersicht der für Privatpersonen verfügbaren Modelle und deren Preise und Preisentwicklungen findet sich im heise Preisvergleich
  45. Nächste Preissenkungsrunde bei Flash-SSDs mit Umstellung auf 25nm zu erwarten
  46. http://www.idealo.de/preisvergleich/OffersOfProduct/4222896_-ultrastar-he6-sata-6tb-hus726060ala640-0f18335-hitachi.html
  47. Schreibzyklen SLC und MLC - Absatz How long have you got before the disk is trashed?
  48. Verfahren zur Nutzungsverteilung. Format: PDF, 0.8 MB
  49. Tom Schäfer: SSD Festplatte Lebensdauer: Hält die SSD wirklich länger? festplattentest.de, 26. August 2013
  50. c't – Test zur Haltbarkeit von Flashzellen (Absatz Halbwertszeit)
  51. http://www.t13.org/Documents/UploadedDocuments/docs2008/D1699r6a-ATA8-ACS.pdf Letzter Entwurf des aktuell gültigen Standards, die S.M.A.R.T.-Attribute fehlen weiterhin
  52. S.M.A.R.T.-Funktionen einer SSD beispielhaft (S.31). Format: PDF, 0.5 MB.
  53. Der SandForce-Controller im Detail, abgerufen am 29. November 2013
  54. Tarun Iyer: LSI Showcases Next-Generation SandForce SSD Controllers, tomshardware.com vom 26. August 2013
  55. DuraWriteTM Virtual Capacity auf lsi.com, abgerufen am 29. November 2013
  56. The SSD Anthology: Understanding SSDs and New Drives from OCZ (englisch) – Artikel bei AnandTech, vom 18. März 2009 (Abgerufen am: 1. August 2012)
  57. http://blogs.msdn.com/e7/archive/2009/05/05/support-and-q-a-for-solid-state-drives-and.aspx Eignung von Flash-SSDs für die Auslagerungsdatei
  58. Ein Überblick zur Leistungsfähigkeit aktueller MLC-Laufwerke im Computerbase-Forum [2]
  59. Reservebereich einer SSD ist nicht überschreibbarer Speicher
  60. Defragmentierung – Herstellermeinung OCZ Core Series
  61. Defragmentierung – Herstellermeinung MTron
  62. FAQ for SSDNow (englisch) – Eintrag bei der Kingston Technology Company; Stand: 20. April 2010
  63. Windows 7 & SSD: Defragmentierung, Superfetch, Prefetch, support.microsoft.com
  64. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=13
  65. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=10
  66. http://crystalmark.info/software/CrystalDiskInfo/index-e.html Anzeigen der Trim-Unterstützung
  67. http://www.hardwareluxx.de/community/f227/indilinx-barefoot-und-eco-faq-679488.html#post13729487 Firmware Indilinx Changelog
  68. http://www.samsung.com/global/business/semiconductor/products/flash/ssd/2008/business/business.html Firmware Samsung
  69. SandForce Recycler für die Garbage Collection
  70. Toshiba Daikoku 2 Überprüfung der Garbage Collection und TRIM
  71. http://hothardware.com/News/OCZ-and-Indilinx-Collaborate-On-New-SSD-Garbage-Collection-Scheme Effekt der Garbage Collection
  72. http://cmrr.ucsd.edu/people/Hughes/SecureErase.shtml Secure Erase zum Wiederherstellen der Werksleistung bei nicht vorhandener Garbage Collection unter Datenverlust
  73. http://www.anandtech.com/show/3681/oczs-vertex-2-special-sauce-sf1200-reviewed/6 Effekt von nicht an Erasable Blocks ausgerichteten (unaligned) Partitionen
  74. http://www.hardwareluxx.de/community/f227/os-optimierungen-fuer-flash-ssds-543445-4.html#post11066540 Manuelle Ermittlung der Erasable Block-Größe
  75. http://www.alex-is.de/PHP/fusion/downloads.php?cat_id=4 AS-SSD-Benchmark
  76. http://forum.corsair.com/forums/showpost.php?p=448636&postcount=5 Linux und die Ausrichtung von Partitionen an Erasable Blocks
  77. Alignment: Partitionen optimieren – Artikel (Seite 5 von 8) bei Chip online, vom 4. September 2009 (Abgerufen am: 1. August 2012)
  78. Vergleich typischer PC-Anwendungsfälle zwischen Flash-SSD und schneller, konventioneller Festplatte. Format: Flash, 24 MB
  79. http://geizhals.at/deutschland/?cat=ramddr3&sort=r
  80. a b AS-SSD Incompressible Sequential Performance (Samsung SSD 840 Pro (256GB) Review)
  81. a b DDR3-1600 SDRAM im Quad-Channel
  82. a b http://dyski.cdrinfo.pl/benchmark/Seagate-ST3000DM001/963.html
  83. sol.physik.tu-berlin.de Quantenpunktspeicher.pdf (S.6)
  84. Langzeitarchivierung#Haltbarkeit_der_Trägermedien Festplatten im laufenden Betrieb
  85. Die Steckverbindungen halten lediglich bis zu 30 g stand; Technische Spezifikation von 184-pin DIMM-Sockeln (PDF-Datei, 90 kB), Technische Spezifikation von SATA-Steckern (PDF-Datei, 167 kB)
  86. Anand Lal Shimpi: Power Consumption. AnandTech, 23. November 2011 (Artikel).
  87. Prinzipbedingt kann ein Stützkondensator in der SSD Datenverlust durch Stromausfall nicht vollständig verhindern, da nach dem Leeren des Schreibcaches der SSD nicht zwingend ein konsistenter Zustand entsteht (z. B. wenn die Übertragung der zu schreibenden Daten aus dem Hauptspeicher in den Cache der SSD über das Interface noch nicht abgeschlossen ist).