Die Verwendung von HDDs und SSDs im Rechenzentrum muss nicht immer eine "Entweder -Oder"-Entscheidung sein. Eine Koexistenz kann sogar für eine optimale Balance aus Leistung, Kapazität und Kosteneffizienz sorgen. Wie das in der Praxis gelingt, erfahren Sie in diesem Beitrag.
Von Scott Harlin (OCZ/Toshiba)
Seitdem die meisten von uns entweder privat oder geschäftlich Computer und Computernetzwerke nutzen, sind wir mit der Speicherung von Informationen auf traditionellen Festplatten (HDDs) vertraut. Ja, diese antiquierten Speichergeräte mit drehenden Platten, eingeführt Mitte der 1950er Jahre, werden immer noch dominierend als Sekundärspeicher in Rechenzentren eingesetzt.
Diese Vormachtstellung fordern aber Flash-basierten NAND-Speicher (SSDs) zunehmend heraus. Denn SSDs haben in den letzten paar Jahren erhebliche Fortschritte gemacht und liefern deutlich schnellere Daten I/O-Zugriffe und beschleunigte Server-Anwendungs-Performance, was die Investitionskosten (CAPEX), die Betriebskosten (OPEX) und die Gesamtbetriebskosten (TCO) in Unternehmen reduziert hat.
Die Verwendung von HDDs und SSDs im Rechenzentrum muss nicht immer eine "Entweder-oder"-Entscheidung sein. Eine Koexistenz kann sogar für eine optimale Balance aus Leistung, Kapazität und Kosteneffizienz sorgen, vor allem für jene weit verbreiteten Enterprise-Anwendungen wie hierarchisches Speichermanagement "Tiered Storage" und Virtualisierung.
Der Hybrid-Ansatz vereint die Performance-Vorteile von SSDs mit den kosteneffizienten Kapazitäts-Vorteilen der HDDs.
Grenzen der HDDs im Enterprise-Umfeld
Basierend auf ihrem mechanischen Innenleben, haben HDDs sowohl mit Performance als auch mit physikalischen Einschränkungen zu kämpfen, welche verhindern, dass sie mit den wachsenden Server-Workloads Schritt halten können.
Während Basic-Server bereits Millionen von Input/Output-Operationen pro Sekunde (IOPS) bearbeiten können, liefert eine traditionelle HDD typischerweise eine Leistung zwischen 200 und 350 IOPS. Für jede Anfrage, bei der Daten von einem anderen Ort auf der Festplatte benötigt werden, muss der mechanische Kopf der Festplatte sich bewegen, was sich allein durch die physikalische Beschaffenheit, auf die Lesegeschwindigkeit für zufällige Daten auswirkt.
HDDs sind für einfache Datenströme konzipiert, die sequentielle Lese-und Schreibvorgänge beinhalten, welche physisch auf der gleichen Spur abgelegt werden. Da moderne Betriebssysteme immer mehr komplexe und multiple Daten beinhalten, kommen auch immer mehr Random Lese-und Schreibvorgänge vor, so dass HDDs mit den wachsenden Server-Workloads einfach nicht mehr Schritt halten können.
Obwohl HDDs eine niedrige I/O-Leistung haben und physikalisch bedingt anfälliger für Fehler sind, liegt ihr Nutzen für Unternehmen in der großen Speicherkapazität, basierend auf grundlegenden Terabyte-Konfigurationen, die weit über den typischen Kapazitäten von SSD-Flash liegen.
Performance jenseits der Disk
NAND-Flash-Zellen in einer SSD sind im Vergleich zu herkömmlichen Festplatten viel dichter und es werden keine rotierenden Scheiben oder magnetischen Köpfe für die Suche von bestimmten Orten verwendet, um auf die Daten zuzugreifen oder sie zu verarbeiten.
Der Controller hat die erforderlichen Datenstandorte bereits zur Verfügung, was zu schnelleren Lese- und Schreibzugriffszeiten führt sowie keine beweglichen Teile beinhaltet, welche kaputt gehen oder für Fehlfunktionen sorgen könnten und somit mühelos einen I/O- Zugriff auf zufällige Daten mit geringer Latenz begünstigt.
Tatsächlich kann eine einzelne Flash-basierte SSD so viele Random IOPS liefern, wie vergleichsweise ein großes SAN-Array mit Tausenden von HDDs. Mit einem Flash-Translation-Layers (FTL), erscheint der SSD-Flash-Speicher für das Betriebssystem als Laufwerk, was eine schnelle und einfache Integration ins Enterprise-Umfeld ermöglicht, insbesondere im Rahmen vorhandener HDD-Implementierungen.
SSDs sind als HDD-Ersatz im Rechenzentrum selbst dann wirksam, wenn die Anwendung nur noch 50 Prozent des tatsächlichen Speichers zur Unterstützung des bestehenden SAN benötigt. Wird die Hälfte der Festplatten mit vergleichsweise performanten SSDs ersetzt, reduziert dies nicht nur den Platzbedarf bei geringeren Investitionen, sondern auch die SAN-Leistung wird zusätzlich noch dramatisch verbessert. Dieser hybride Ansatz ist für jene IT-Manager sehr interessant, die ein Gleichgewicht aus Leistung, Kapazität und Kosteneffizient anstreben, vor allem für solche weit verbreiteten Anwendungen wie Tiered Storage und Virtualisierung.
Hybrides hierarchisches Speichermanagement (Hybrid Tiered Storage)
Das beste Beispiel für die Kombination von Geschwindigkeit von SSDs mit der großen Kapazität von HDDs zeigt die Tier-Pyramide. Diese Anwendung kategorisiert Daten von Unternehmen, basierend auf bestimmten und verbunden Kriterien, wie beispielsweise den Performance-Anforderungen, dem Datennutzen, der Datengröße, deren Wichtigkeit, dem Grad für Datenschutz etc.
Die kategorisierten Daten werden dann verschiedenen Arten von Speichermedien zugeordnet, die sich entweder im SAN oder in bereitgestellten Anlagen (Storage-Arrays oder -Geräten), auch abhängig von den Kosten des Mediums. Dieser hybride Ansatz legt Wert auf Daten, priorisiert diese und reduziert damit die Gesamtkosten für das SAN/Speicher-Equipment.
Die wichtigsten Daten eines Unternehmens (Mission Critical), mit intensiven Transaktionen, brandaktuell und als "Hot" sowie vertraulich eingestuft, werden zum Beispiel Tier-0-Daten zugeordnet. Ihre Bedeutung qualifiziert diese Daten für hoch-qualitative Speichermedien wie SSDs, die eine höhere Leistung, Beständigkeit und Zuverlässigkeit.
Weniger häufig verwendete Daten werden typischerweise Tier-1-Speichern zugewiesen, beanspruchen nicht unbedingt SSD-Performance sondern nur ein wenig mehr Leistung und Zuverlässigkeit wie Konsum-Lösungen. Damit sind HDDs, die 10K-15K U/min liefern, gut für dieses Spektrum geeignet. Eine große Menge an selten genutzten Daten, wird normalerweise als Tier 2 eingestuft. Hier passen Kapazitäts-orientierte HDDs mit 7.500 U/min.
Da die Tier-Abstufungen wachsen, könnte eine Vielzahl von Kategorisierungs-Strategien implementiert werden, um weniger teure Medien wie Wechseldatenträger (z. B. CDs, Band, Low-End-HDDs) zu integrieren oder auch ein MAID (Massive Array of Idle Disks) einzubinden.
Die Kombination aus schnellen I/O-Zugriffen und beschleunigter Anwendungs-Performance von SSDs und der signifikanten Speicherkapazität von HDDs kann entsprechend den Anforderungen der Unternehmensstruktur implementiert werden. Um diesen Hybrid-Ansatz zu perfektionieren, wäre die Überlegung, eine SSD im Server selbst zu installieren und diese als Beschleuniger durch Caching der am häufigsten verwendeten Tier-0 und Tier-1 Daten zu nutzen.
Innerhalb eines jeden Anwendungsdatenzugriff-Profils gibt es häufiger eine Datenteilmenge, die regelmäßig angefordert wird. Diese "Hot Data" können auf der SSD im Server zwischengespeichert werden. Auf diese Weise müssen diese angeforderten "Hot Data" nicht vom SAN kommen, da sie bereits auf der SSD innerhalb des Servers kopiert worden sind. Dies eliminiert nicht nur Server-Engpässe sondern auch den Flaschenhals bei SAN-Zugriffen. Angesichts der von SSDs gegenüber HDDs gelieferten Leistung als auch I/O-Resonanz-Vorteile, wird der Zugang zu den "Hot Data" stark verbessert.
Integriert man dieses Flash-Caching in die Infrastruktur, werden nicht nur die allgemeinen Investitionen gesenkt, da nur ein paar SSD-Flash-Medien benötigt werden, sondern auch die Leistung durch die Flash-Technologie erhöht. Dies ermöglicht IT-Managern weiterhin die Kapazitätsvorteile von Festplatten für weniger frequentierte oder häufig verwendete Daten zu nutzen und bietet eine der kostengünstigsten und effizientesten Hybrid-Speicherlösungs-Ansätze heutzutage.
Fügt man Flash-Caching der Infrastruktur hinzu, werden nicht nur die allgemeinen Investitionen gesenkt, da nur einige SSD-Flash-Speicher benötigt werden, sondern es wird auch die Leistung durch die Flash-Technologie erhöht.
Hybrid-Virtualisierung
Virtualisierung ist eine Unternehmensanwendung, welche Server-Ressourcen verteilt und den physischen Host in mehrere isolierte virtuelle Umgebungen, sogenannte virtuelle Maschinen (VMs),unterteilt, um durch die bessere Auslastung der Host-Ressourcen kosteneffektiver zu werden. VMs helfen Systemlasten auszugleichen und erweitern die Verarbeitungskapazitäten, wodurch weniger physikalische Hosts pro Anwendungsbearbeitung benötigt werden und somit auch eine deutliche Reduktion der System- und Wartungskosten.
In diesen virtualisierten Umgebungen wurden Speichermedien traditionell in externen SANs oder Storage-Arrays mit HDDs ausgelagert, die in den meisten Fällen jedoch keine große Anzahl von VMs gleichzeitig bedienen können, geschweige denn mit ihrer IOPS-Leistung mit der benötigten Server-Arbeitslast Schritt halten können. Da viele Anwendungen gleichzeitig laufen, werden ihre gemeinsamen Speicherzugriffe durch die Virtualisierung-Layer vermischt. Dadurch entstehen I/O-intensive Random-Zugriffe, was wiederum für HDDs das größte Problem darstellt und ihre physikalischen Köpfe sich so kontinuierlich von einem Ort zum anderen bewegen. Dies ist allgemein als I/O-Blender-Effekt bekannt.
Da alle VMs einer virtualisierten Umgebung gleichzeitigen Zugriff auf externe Speichermedien im Host haben müssen, ermöglicht das Caching der am häufigsten verwendeten Daten auf SSD-Flash
Speicher allen verbundenen VMs den Datenzugriff mit einer viel höheren Geschwindigkeit und geringerer Latenz. Daten auf welche nicht häufig zugegriffen wird oder die weniger wichtig sind, sind Anwärter für HDDs wie im zuvor im Hybrid-Tiered-Storage-Abschnitt besprochen.
Im Gegensatz zu HDD-Speichern haben Flash-basierte SSDs keine beweglichen Teile und können daher Random- Datenzugriffe mühelos bewältigen, so dass sie Virtualisierung effektiv unterstützen und gleichzeitig die Anzahl der Tausenden Festplatten reduzieren, welche für die erforderliche I/O-Leistung benötigt wurden. In einer virtualisierten Umgebung liegt der Schlüssel darin, Random Loads effektiv zwischen allen verfügbaren Flash-Ressourcen der SSD zu verteilen, um somit schnellen und zuverlässigen Datenzugriff ohne Belastung der Host-CPU oder Speicher-Ressourcen zu liefern.
Um dies zu erreichen ist zusätzlich eine intelligente Software erforderlich, welche Flash-Caching und Storage-Virtualisierung in einer virtualisierten Server-Plattform liefert, während dem Flash-Cache ermöglicht wird die Größe des Clusters oder der gesamten verfügbaren HDD-Speicherkapazität aus dem externen SAN zu skalieren und damit eine Hybrid-Virtualisierung zu schaffen.
Die von OCZ Technology entwickelte Lösung, behandelt PCIe-basierte SDDs nur als weitere virtuelle Ressource, und durch die VXL-Software wird ein zentrales virtuelles Instrument erstellt, das direkt mit dem Virtualisierungs-Hypervisor vom OS arbeitet, um dynamisch die benötigten Flash-Ressourcen nach VM-Bedürfnissen verteilt. Die Fähigkeit den Flash-Speicher je nach Bedarf unter den VMs zu verteilen stellt sicher, dass keine VM ineffizient den Flash-Speicher belegt, während er besser anderweitig in der virtualisierten Umgebung verwendet werden kann und somit der Flash-Cache jederzeit optimal genutzt wird, unabhängig davon wie viele VMs gleichzeitig laufen. Obwohl sich der Flash-Cache in einem Server befindet, kann diese Ressource von mehreren Servern gemeinsam genutzt werden. Dieser innovative Ansatz liefert den höchsten Return on Investment (ROI) einer virtualisierten Umgebung, in der sich viele VMs den Flash-Speicher teilen und oftmals nicht gleichzeitig Spitzenauslastungszeiten mit deren Anforderungen erreichen.
Fazit
In Unternehmen bietet die Koexistenz von HDDs und SSDs ein ausgewogenes Verhältnis aus Leistung, Kapazität und Kosteneffizienz für Anwendungen wie Tiered-Storage und Virtualisierung. Dieser Hybrid-Ansatz ermöglicht den HDD-Einsatz, um günstige Speicherkapazität aber auch die erforderliche Leistung von SSDs zu liefern. Die I/O-Performance muss daher nicht länger von einem großen Array rotierender und fehleranfälligen Festplatten erbracht werden.
Die Zusammenführung der Performance-Vorteile von SSDs mit den Kapazitäts-Vorteilen von HDDs schafft eine bessere Nutzung von Server-Ressourcen und reduziert die Anzahl erforderlicher Festplatten im Rechenzentrum. Dies wiederum senkt die Investitions- und Betriebskosten erheblich, wie auch den mit High-End-SAN-Arrays verbundenen Strom-, Kühlungs- und Wartungsaufwand. Am Ende steht nicht nur eine leistungsfähigere und schlankere Lösung, sondern auch eine, die das Ende
Ergebnis ist nicht nur eine höhere Durchführung schlankere Lösung, aber eine, die überragende TCO für das Rechenzentrum liefert.
Storage-Engpässe in virtualisierten Umgebungen vermeiden
Virtualisierung verändert die Spielregeln, wenn es darum geht, wie Unternehmen ihre IT-Infrastrukturen bereitstellen und verwalten. Sehr oft jedoch wird das Potenzial nicht voll ausgeschöpft. Wenn die I/O- und Random-Access-Anforderungen steigen, stoßen traditionelle Speichermethoden an ihre Grenzen. Leicht entsteht so ein Datenengpass, der ein Unternehmen in die Knie zwingen kann.
Die OCZ VXL Enterprise Storage Accelerator-Software in Kombination mit der OCZ Z-Drive R4 PCIe SSD-Serie beseitigt diese I/O-Engpässe und liefert die volle Virtualisierungs-Performance ohne Vorteilseinbußen. Diese Lösung ermöglicht bis zu zehnmal mehr virtuelle Maschinen (VMs) auf dem gleichen physischen Host.
Die VXL-Software umfasst ein Feature-Set, das eine erhöhte Datenbeschleunigung, eine hohe Verfügbarkeit sowie Ausfallsicherheit liefert und als virtuelle Appliance auf dem Host-Server bereitgestellt wird, um Flash-Ressourcen je nach Bedarf der VM-Anwendungen zu verteilen und dadurch die Leistung zu maximieren. So ist sichergestellt, dass keine VM den Flash untätig blockiert, wenn er anderweitig in der Umgebung genutzt werden kann.
Die VXL Software erfordert keine Guest-Agents innerhalb der VM. Das vereinfacht IT-Implementierung, Verwaltung und Wartung. Hypervisor-Konnektivität nutzend, arbeitet VXL mit jedem Betriebssystem, das von einer Virtualisierungsplattform unterstützt wird, einschließlich Windows, Linux, OpenSolaris und FreeBSD. Die Fähigkeit, alle Datenzugriffe zu überwachen, reduziert obendrein den Datenverkehr zum/vom SAN um bis zu 90 Prozent, unter Beibehaltung wichtiger Daten in der Z-Drive R4-Flash-Karte selbst.
Vertriebsargumente für VXL:
Deutlich höhere Performance
Wesentlich geringere Latenz
Volle Flexibilität, inkl. aller Vorteile der Virtualisierung ohne Einschränkungen
Höhere Auslastung virtualisierter Server, was letztendlich weniger Server erfordert
Niedrigerer Strombedarf im IT-Rechenzentrum
Möglichkeit, auch kostengünstige Standard-Hardware benutzen zu können
Lösung, die Flash-Cache ermöglicht, das sich physikalisch in einem Host-Server befindet, aber von Remote-Servern gleichzeitig gemeinsam genutzt werden kann
Keine "Guest Agents" innerhalb der VM-Anwendung nötig, was die Implementierung deutlich vereinfacht
Unterstützt alle von Hypervisoren unterstützten Gast-Betriebssysteme
Unterstützt multiple Virtualisierungs-Plattformen wie z.B. VMware ESX, MS Hyper-V, Citrix Xen
Unterstützt dynamische VM-Migration von Server zu Server (z. B. VMotion) ohne den Verlust von Cache
Ermöglicht SAN-less Datenzentren als Teil eines All-Silicon-Clusters
Dynamische Zuordnung von Flash auf VMs, was zu einer höheren Auslastung und niedrigeren Gesamtbetriebskosten führt
Anwendungsoptimierte Cache-on-Demand für höhere Performance und Lebensdauer
Nutzen und Einsatzmöglichkeiten
Um auf dem heutigen Markt wettbewerbsfähig zu bleiben, muss die Technologie, auf die wir setzen, einen Wettbewerbsvorteil bieten. Deshalb geht es nicht nur darum, Daten effektiv zu verarbeiten, sondern sie auch zu beschleunigen, damit Unternehmen eine hohe Leistung und Bandbreite für das gesamte Spektrum der Unternehmens-, Cloud-und Server-Storage-Anwendungen nutzen können.
Viele Unternehmen allerdings können sich nicht den Luxus leisten, eine perfekt funktionierende Infrastruktur oder ein gut arbeitendes Gerät auszutauschen um neue Wege zu gehen. Deshalb lassen sich OCZ-Produkte nahtlos in bestehende Plattformen integrieren. So können Unternehmen und OEMs die SSD-Technologie nutzen, welche die wichtigsten Schwächen von Legacy-Systemen adressiert.
Rechenzentrum optimieren - Warum?
Jedes Unternehmen ist vom Online-Wahn betroffen. Heutzutage informiert man sich vor Investitionen auch im Internet. Baut sich eine Online-Seite zu langsam auf, ist der Kunde bereits bei der Konkurrenz. Diese "Pain-Box" von Unternehmen wird weiter wachsen und mit den stetig zunehmenden Datenvolumen für die nächste Zeit ein ganz heißes Thema sein.
(rb)