CP: Wie lässt sich die Leistungsfähigkeit virtueller Maschinen - beispielsweise, indem die Zahl der virtuellen Maschinen auf einem physischen Server erhöht wird - durch eine geeignete Speichertechnologie verbessern?
Dietsch: Es sollte für eine ausgewogene Verteilung von Workloads auf LUNs (Logical Unit Number) oder NFS-Shares (Network File System) gesorgt werden. Die Arbeitslast auf einer LUN/einem Share sollte konstant überwacht werden, und ggf. VMs von einer hoch belasteten LUN auf einer mit weniger Betrieb verschoben werden. Dies ist ohne Unterbrechung des laufenden Betriebes möglich (Storage vMotion) und lässt sich z.B. bei VMware auch automatisieren. Darüber hinaus sollte die Speicherhierarchie durch den Einsatz von PCIe, d.h. durch schnelle SSDs/Karten direkt am Bus im Tier Level 0 und 1 gegenüber früheren SAS/FC Schnittstellen basierenden rotierenden Magnet- Speichern optimiert werden.
CP: Was wird bei der Absicherung virtueller Umgebungen häufig zu wenig beachtet?
Dietsch: Eine virtuelle Infrastruktur muss genauso abgesichert werden wie eine physikalische Umgebung (Firewalls, Access Policies, Viren-Scanner). Allerdings gibt es in der virtuellen Umgebung einige intelligentere Lösungen - z.B. Virenscanner, die nicht im Betriebssystem-Kontext einer VM, sondern außerhalb der VM laufen.
CP: Wo erkennen Sie weitere Trends und Probleme in den Bereichen Server-, Storage-, Desktop- & User-Virtualisierung?
Dietsch: Virtualisierung ist eine Grundlage für moderne Cloud-Architekturen im ITaaS-Umfeld. Da hier Resourcen-Sharing zum Einsatz kommt, sind die Anforderungen ans Netzwerk und an Storage hoch und müssen sorgfältig geplant werden. Um alle Features moderner Hypervisoren auszunutzen, sollten entsprechende Massenspeicherlösungen verwendet werden. Mit diesen ist es möglich, die Verwendung von Service-Klassen zu automatisieren: das Storage-Device informiert den Hypervisor automatisch über seine Leistungsklassen, so dass dieser entsprechend vorgegebener Regelwerke die Provisionierung von Workloads (VMs) automatisch nach vereinbarten SLAs vornehmen kann.
- Tiering und SSD
Storage Tiering mit mindestens drei Storage-Tiers kann die Speicherkosten erheblich senken. <br> Faustregel: Preisdifferenz zwischen den Tiers liegt bei 2:1. Durch den Einsatz von Flash oder Solid State Drivers (SSDs) kann dies zudem weiter erhöht werden. - Thin Provisioning
Thin Provisioning über gemeinsam genutzte Speicher-Pools ermöglicht das schrittweise Aufstocken von Speicherkapazitäten durch die Zuweisung von Datenblöcken nach Bedarf (on Demand). Dadurch wird kaum mehr Speicherplatz ungenutzt gelassen, was bei herkömmlichen Methoden der Speicherzuweisung oft der Fall ist. - Tape
Veraltete Daten müssen nicht mehr so oft abgefragt werden und können deswegen auf Speicherbändern (Tapes) abgelegt werden. Dabei betragen die damit verbundenen Kosten weniger als ein Zehntel der Kosten für die Plattenspeicherung (ca. 0,02 USD/GB) und verbrauchen zudem nicht einmal ein Hundertstel an Energiekosten für Stromversorgung und Kühlung - Snapshots
Mit Hilfe von Snapshot-Kopien für die Datensicherung, den Datenschutz und das Testen lässt sich der Bedarf an Speicherkapazität insgesamt um bis zu 80 Prozent reduzieren. Das kann insbesondere beim Testen mit Live-Daten sehr nützlich sein, da nicht mehrere Datenbanken in Produktivgröße für Testzwecke erstellt werden müssen. - Neue Storage Management Lösungen
Mit zunehmender Speicherkapazität steigt proportional auch die Zahl der Administratoren an. Die neueren Speicherplattformen bieten automatische Management-Fähigkeiten, wodurch dieses Verhältnis verbessert werden kann. - Mainframe als Datenbank-Server
Mainframe-Server setzen auf einer gemeinsam genutzten (Shared) Storage-Architektur auf. Damit muss von jeder Datenbank nur eine einzige Kopie vorgehalten werden, was den Kapazitätsbedarfs insgesamt um bis zu 80 Prozent senken kann. - Leasing/Kürzere Refresh-Zyklen
In den letzten fünf Jahren hat sich die Dichte um das Zweieinhalbfache verbessert, und der Strombedarf konnte um über 90 Prozent gesenkt werden. Kürzere Refresh-Zyklen bergen deshalb in vieler Hinsicht Kostensenkungspotenziale. - Golden Records
Vermeiden Sie bei Computing-Umgebungen, bei dem eine Shared-Nothing Storage-Architektur zum Einsatz kommt, zu viele Datenbank-Kopien. - Deduplizierung
Durch Deduplizierung lassen sich redundante Daten vermeiden; und bei entsprechender Nutzung in Bereichen, wo Deduplizierung erfolgversprechend angewandt werden kann, lassen sich Einsparungen im Verhältnis bis zu 22:1 erzielen. Hierfür gibt es vier verschiedene Methoden: Inline, Post-Process, Quell- und Ziel-Deduplizierung. - Clouds und Pools
Mit Hilfe von Cloud Storage kann der vor Ort erforderliche Speicherbedarf reduziert werden. Insbesondere sinnvoll ist das für Entwicklungs- und Test-Systeme sowie für Backups. Beim Einsatz von Storage-Pools kann Speicherkapazität zudem von mehreren Anwendungen gemeinsam genutzt werden. - Kompression
Daten und Aufzeichnungen, die aufgrund von gesetzlichen Vorschriften aufbewahrt werden müssen, sollten ausschließlich mit Hilfe von verlustfreien Techniken komprimiert werden; dazu zählen unter anderem ZIP-Dateien ebenso wie PNG und GIF Images. - Besseres Content Management
Vorhandener Speicherplatz muss besser genutzt bzw. verwaltet werden. Dadurch kann vermieden werden, dass verwaister oder überbeanspruchter Speicherplatz entsteht.
CP: Wo liegen die Knackpunkte auf Seiten der Endkunden wie auf Seiten der Vertriebspartner?
Dietsch: Knackpunkte sind vor allem die Reduktion von CAPEX durch Konsolidierung von vielen Workloads auf wenigen physikalischen Servern; die Reduktion von OPEX durch einfaches und automatisierbares Deployment von Workloads, ein einfach erreichbarer Standardisierungsgrad, Höhere Verfügbarkeit, beispielsweise durch vMotion, Clusterung, DRM, sowie die einfache Umsetzung von Standardprozessen (z.B. ITIL) und intelligente Management-Tools.