(R)evolution im Rechenzentrum

Autor: Michael Sandhoff, CTO der CEMA

Hyperkonvergente Systeme sind erwachsen geworden und schicken sich an, den IT-Infrastruktur-Markt umzukrempeln. Denn die zweite Generation weitet die Vorteile wie lineare Skalierbarkeit, vereinfachte Verwaltung, schnelle Bereitstellung sowie geringere Kosten auf eine Vielzahl von Anwendungsszenarien aus.

Flexibles Sizing und Flash-Speicher

Aus Supportgründen boten HCI-Pioniere wie Nutanix oder Simplivity ihre Rechenzentren „aus der Box“ zwar gut durchgetestet, aber nur in Einheitsgrößen bei RAM, CPU und Festplattenspeicher an. Bei jeder Erweiterung musste eine Appliance, die häufig drei Nodes umfasst, mit vorgegebenen Kapazitäten angedockt werden, obwohl beispielsweise nur mehr Rechenleistung gebraucht wurde. Bei HCI der zweiten Generation ist die Skalierung feiner justierbar. Denn Rechenleistung und Speicher eines einzelnen Nodes sind voneinander getrennt und können entsprechend der Workload dimensioniert werden.

Gleichzeitig haben HCI auch bei der Performance zugelegt. Beim Lesen oder Schreiben kompletter Festplatteninhalte gingen sie früher unausweichlich in die Knie, da der SSD-SATA-Verbund die Leistungsanforderung nicht erbringen konnte. Dank Flash-Speicher meistern sie jetzt I/O-intensive Aufgaben problemlos, beispielsweise ein volles Backup über alle Datenbestände oder Big-Data-Analysen. Zudem entfällt der Storage-Traffic als Flaschenhals, da sich der Speicher direkt ansprechen lässt. Die Daten auf den VMs liegen nahe der verarbeitenden CPU und müssen nicht erst über das SAN transportiert werden.

Anwendungsszenarien: Fast alles ist möglich

Die zweite All-Flash-HCI-Generation öffnet somit die Tür für vielfältige Use Cases. Ihr Einsatz beschränkt sich nicht länger nur auf Bereiche wie VDI, Außenstandorte und Filialen (ROBO), Lifecycle und Disaster-Recovery. Unternehmen nutzen HCI als Plattform für Performance-hungrige Datenbankanwendungen, ERP-Systeme, Kommunikations- und Mailsysteme sowie für Datenanalysen (Business Intelligence), beispielsweise für die täglichen Auswertungsläufe von Kennzahlen. Kunden betreiben darauf Applikationen wie CRM, File- und Printserver und Virtuelle Firewalls. Metrocluster mit Load-Balancing und automatischem Failover stellen Hochverfügbarkeit her.

Ein Trend bei den Anwendungsszenarien ist nicht erkennbar. Doch weiten Firmen, die mit der ersten HCI-Generation bereits Erfahrungen gesammelt haben, den Einsatz der Technologie momentan auch deshalb aus, weil diese den Aufbau von hybriden IT-Infrastrukturen für eine verteilte Produktion begünstigt. Durch ihren modularen Ansatz vereinfachen HCI das Verschieben von VMs samt Applikation, beigeordneten Systemen und Daten zwischen Lokalitäten. Bisher wurde diese Fähigkeit hauptsächlich bei der Datenreplikation zwischen Außenstandorten und Zentrale oder beim Disaster-Recovery genutzt. Der Flash-Speicher liefert jetzt auch das nötige Tempo zum Migrieren dynamischer Workloads zwischen Rechenzentrum und Public Cloud. So kann beispielsweise ein Unternehmen zum Erstellen des Jahresabschlusses die Nodes mit den BI-Anwendungen zeitweilig in die Cloud auslagern, um das Tagesgeschäft nicht zu beeinträchtigen. Darüber hinaus ist es möglich, Nodes zwischen HCI und Serverfarm im laufenden Betrieb unterbrechungsfrei zu migrieren – vorausgesetzt der gleiche Hypervisor kommt zum Einsatz.

Grenzen und Chancen

Eine Skalierung der Nodes pro Cluster ist nicht unbegrenzt möglich. Ab einem Grenzwert zwacken die Nodes Leistung für die Kommunikation untereinander ab. Die maximale Ausbaustufe bewegt sich aktuell in Größenordnungen von rund 60 physischen Knoten, auf denen beispielsweise etwa 4.000 VDIs oder 1.500 VMs laufen können. Werden mehr Nodes gebraucht, dann empfiehlt sich der Aufbau einer weiteren Serverfarm. Kritisch ist zudem, welchen Hypervisor die HCI-Lösung unterstützt. Denn ein Wechsel des Hypervisors bedeutet einen hohen Migrationsaufwand. Während sich manche Lösungen agnostisch verhalten, funktionieren kernelbasierte Architekturen wie vSAN von VMware nur mit vSphere, was allerdings auch der am weitesten verbreitete Hypervisor ist.

Wer diese Einschränkungen berücksichtigt, kann HCI als Sprungbrett für neue Möglichkeiten und Technologien nutzen. HCI machen Schluss mit technischen Silos. Sie schaffen konsolidierte Umgebungen, die sich softwarebasiert über einen zentralen Management-Punkt verwalten lassen. Weniger Komplexität vereinfacht die Administration, Kontrolle und Optimierung von IT-Umgebungen und Datenbeständen auf der Plattform. Ressourcen lassen sich einfacher provisionieren, Anforderungen schneller erfüllen und hybride IT-Modelle leichter umsetzen.

Die Pay-as-you-grow-Skalierung schützt Investitionen und das Budget. Der Druck auf IT-Abteilungen, auf Verdacht hin Ressourcen aufzubauen und für Eventualitäten vorzuhalten, verringert sich signifikant. Zudem erleichtern HCI das interne Verrechnen der Kosten nach dem Verursacherprinzip: Die für Software-Projekte erforderlichen infrastrukturellen Erweiterungen lassen sich genau budgetieren und den einzelnen Business Bereichen zuordnen. HCI sind somit ein wichtiger Schritt hin zu agilen, flexibel kombinier- und einsetzbaren Plattformen sowie einem automatisierten IT-Betrieb. Die großen Player wie HPE, DellEMC und Microsoft haben das Potenzial von HCI erkannt und mischen momentan den Markt auf, was die technologische Bandbreite und den Support betrifft. Es dürfte spannend werden!

Fachbeitrag Funkschau, Ausgabe September 2017

Kontaktieren Sie jetzt Ihren CEMA Spezialisten

Klicken Sie hier, um E-Mails von CEMA zu erhalten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.