Backup und Disaster-Recovery im Wandel

0
43
Veritas

Das Backup wird demokratisch

Die Anwender in den Firmen wollen ihre Daten und Systeme immer öfter selbst mit wenigen Klicks wiederherstellen. Sie führen neue Cloud-Dienste, Workloads und Plattformen ein und lassen so die Menge und Vielfalt der Daten explodieren. Damit decken sie die Schwächen althergebrachter Backup-Konzepte gnadenlos auf. Doch worauf sollte man achten, wenn es um die Modernisierung der letzten Verteidigungslinie Backup und Restore geht?

Businessanwender haben in der Cloud gelernt, dass sie IT-Dienste und Ressourcen selbst organisieren können, auch an der IT-Abteilung vorbei. Sie haben erkannt, dass sie auch komplexe Businessaufgaben über den Browser mit wenigen Klicks erledigen können. Diese – neudeutsch – User-Experience setzen sie längst bei anderen IT-Disziplinen in der Firma voraus. Das gilt auch bei der Wiederherstellung von Daten aus dem Backup.

Verantwortliche für das Backup wiederum müssen immer mehr Daten auf immer stärker gemischten, verteilten Umgebungen sichern, ohne dafür mehr Personal oder Budget zu bekommen. Eigene Studien und Dark Data Assessments von Veritas bei Firmenkunden mit echten Nutzdaten zeigen, dass die Menge der zu sichernden Daten von Jahr zu Jahr um 49 Prozent wächst. Damit werden die Prognosen der Analysten wie IDC und Gartner von der Praxis bestätigt. Gleichzeitig erwartet niemand, dass die User weniger Daten erschaffen werden, da Digitalisierungsvorhaben bisherige analoge Produkte und Produktionsabläufe mit einer neuen Technikschicht überziehen, deren Sensoren jeden Tag weitere Daten erzeugen werden.

Unter diesem Druck, den Anwender und Sparzwänge erzeugen, wird die IT ihr Backup-Konzept zwangsläufig modernisieren müssen. Wer dann ein individuelles Tool für jede Umgebung einsetzt, auch wenn jedes Einzelne simpel zu nutzen ist, wird in Sachen Betriebskosten immer gegen ein einheitliches modernes Backup-Modell verlieren, bei dem ein Backup-Konzept alle Plattformen und Infrastrukturen zuverlässig abdeckt. Insbesondere letzter Punkt ist essenziell. Denn spätestens, wenn die ersten Businessdaten in der Cloud korrumpiert wurden oder jemand das Backup einer neuen Plattform verlangt, wird Verantwortlichen schmerzhaft deutlich, dass ihr bisheriges Konzept lückenhaft war. Aber worauf kommt es an, um ein zukunftssicheres Backup-Konzept zu schaffen, das Big Data, Multi-Cloud und auch Betriebsmodelle wie „Infrastructure as a Code“ souverän beherrscht?

Betrieb radikal vereinfachen

Das Backup muss radikal weniger Arbeit machen, damit Backup-Verantwortliche auch in komplexen Umgebungen aus lokalen Rechenzentren, Private- und Public Clouds die explodierenden Datenmengen zuverlässig sichern und vor allem wiederherstellen können.

Dazu ist es notwendig, die bisherigen Teams zu entlasten und Wiederherstellung von Daten und Workloads auf mehrere Schultern im Unternehmen zu verteilen. So können Mitglieder der Big-Data-Teams oder Vmware-Umgebungen ihre eigenen Ressourcen, Daten und Plattformen kontrollieren, Daten wiederherstellen oder auf frühere Versionen zurückschalten, ohne die Backup-Teams fragen zu müssen.

Die Backup-Lösung muss zu diesem Zweck ihre Benutzeroberflächen massiv modernisieren und auf die entsprechenden Business-Owner zurechtschneiden. Ein Role-based Access-Control-Mechanismus sollte Rechte und Rollen definieren und den Zugriff auf Backup-Aufgaben, Tasks, Policies und Monitoring-Daten massgeschneidert anpassen. So würde der Vmware-Admin nur noch seine Ressourcen, seine Tasks und seine Daten sehen und wiederherstellen können. Der Prozess sollte für die jeweiligen User ausserhalb des Backup-Teams in wenigen Klicks und ohne Backup-Schulung abzuwickeln sein. Sie sollen sich ja auf ihre Kernaufgabe konzentrieren und keine Zeit mit Nebenaufgaben vergeuden.

Der Hersteller des Backup-Systems muss seine grafischen Oberflächen massiv modernisieren und an die Bedienkonzepte führender Cloud-Provider anlehnen. Schliesslich haben weder Netflix noch Amazon oder Ebay die Verbraucher darin geschult, wie ihre reichen Dienste zu nutzen sind. Gesunder Menschenverstand und ein wenig Vorwissen müssen genügen. Das ist der Anspruch, den die Anwender stellen werden. Schliesslich werden sie die komplexen Strukturen in Rechenzentren niemals verstehen, da sie vor ihnen verborgen bleiben. Vor allem jüngere User werden daher überzogene Erwartungen mitbringen beim Restore ihrer Daten. Schliesslich können sie ihr iPhone ja auch per Knopfdruck wiederherstellen und Daten aus der Dropbox zurückholen.

Im alltäglichen Betrieb sollte das Backup-Konzept sich auch an übergelagerte Service-Level-Management-Systeme ankoppeln, über die Generalisten alle möglichen IT-Lösungen per Ampelsystem überwachen. Standardisierte Software-Schnittstellen wie RestAPI können von Entwicklern und grossen Lösungsanbietern wie ServiceNow genutzt werden, um darüber mit wichtigen Backup-Tasks zu interagieren. Auch über diesen Weg wird die Komplexität der Backup-Umgebung dank kluger Software vom Anwender verborgen, so dass sich das tägliche Monitoring der Umgebung leichter auf mehrere Teams verteilen lässt.

Die Physik ausklammern

Das Backup muss ausserdem ähnlich wie bei der Virtualisierung die physische Welt im Idealfall völlig ausklammern und vor dem Anwender verbergen. Dazu sind Automatismen sowohl bei der Erstimplementierung als auch im Betrieb unabdingbar. Für diese Aufgabe bedarf es ausgesprochen komplexer Algorithmen, die die Backup-Soft- und Hardware mit Hilfe von Machine Learning und Künstlicher Intelligenz durch die Erstkonfiguration leiten.

Die Backup-Systeme müssen sich autonom konfigurieren und dabei selbst entscheiden, wieviel Storage- und CPU-Ressourcen sie an welchem genauen Ort in der Umgebung brauchen. Sie müssen dann beispielsweise selbst entscheiden, dass ein Umschalten auf den Backup-Server in Hamburg für diese Systeme nicht sinnvoll ist, weil die Latenzzeit dann zu hoch wird.

Einmal im Betrieb, sollten sich die Backup-Plattformen selbst überwachen, um kritische Zustände zu erkennen und so Ausfallzeiten zu vermeiden. Dazu sollte die Hard- und Software durchgehend Telemetriedaten sammeln und ihren Zustand selbst einschätzen. Dieser wird dann wieder auf einem Dashboard angezeigt und steht dem Servicepersonal zur Verfügung. Auf Grundlage des Scores lassen sich proaktive Massnahmen ergreifen, wie etwa eine Patch-Installation oder die Durchführung von Vor-Ort-Serviceleistungen.

Die Backup-Systeme im Verbund müssen zudem miteinander sprechen, um sich über ihren aktuellen Zustand zu informieren und gleichzeitig mit künstlicher Intelligenz Trends analysieren, um künftige Aufgaben, Lastspitzen und Engpässe zu identifizieren und entsprechend darauf zu reagieren.

Dank der künstlichen Intelligenz entsteht aus der physischen Backup-Infrastruktur ein kluger und dynamischer Verbund, der wie bei einem guten Team Stärken und Schwächen eines jeden Mitglieds berücksichtigt und sich Aufgaben dynamisch und agil gegenseitig zuspielen kann. All das muss möglichst autonom passieren, ohne dass menschliche Interaktionen nötig sind.

Sollte der Ernstfall dennoch eintreten und ein Eingriff durch einen IT-Spezialisten nötig sein, so muss dieser sämtliche Systeme über eine einzelne Konsole verwalten können. Das geschieht, wie bereits angedeutet, Idealerweise über ein Dashboard mit einfachem Ampelsystem – rot, gelb und grün. Dort bekommt der Mitarbeiter den nötigen Überblick und kann im besten Fall mit einem Mausklick das System wieder in einen betriebsbereiten Zustand bringen. Zudem sollten klare Handlungsanweisungen erfolgen, welche Komponente auszutauschen ist. So werden in einem derartigen Szenario deutlich weniger hochspezialisierte Experten benötigt, die dann nur noch sehr anspruchsvolle Probleme lösen müssen.

Obligatorische Abdeckung

All die modernen Selbstheilungsprozesse und Autokonfigurationen büssen an Wert ein, wenn das Backup-Konzept eine kritische Workload schlicht noch nicht abgedeckt hat. Die meisten Workloads von heute sind sehr dynamisch, verteilt, gross, virtualisiert und werden traditionelle Backups schnell an ihre Grenzen bringen. Wer diese dynamischen Daten zähmen will, sollte Hersteller auf seine Shortlist setzen, die zuerst einmal in der Lage sind, die vielen Workloads überhaupt zu sichern. Dies lässt sich anhand einfacher Checks schnell prüfen. Ausserdem ist es mehr als sinnvoll, die bisherige Leistung des Herstellers auf diesem Gebiet zu bewerten.

Ist die Abdeckung der Plattform vom Drittanbieter zertifiziert worden? Sind massive Probleme aufgetreten, die der Hersteller mit Patches reparieren musste? Skaliert die Backup-Plattform noch oder wird sie von der neu angebundenen Datenquelle in die Knie gezwungen? Werden neben den klassischen Legacy-Plattformen und den virtuellen Stacks bereits moderne Workloads wie Mongo DB, Sap HANA, Hadoop oder Open Stack abgedeckt? Wie schnell ist der Backup-Hersteller darin, neue Workloads zu unterstützen? Arbeitet der Anbieter mit den Cloud-Providern zusammen und liefert zertifizierte Module, um mit ihnen und deren Cloud-Snapshots und Data Movern zu interagieren? Welche Historie hat er auf diesem Gebiet, welche Strategie verfolgt er? Das Backup ist die letzte Verteidigungslinie und der Plattformsupport muss seriös und höchst zuverlässig arbeiten, damit der Restore gelinkt. Daher zeigen sich in der Praxis auf diesem Gebiet spürbare Qualitätsunterschiede.

Das Backup-Konzept muss ausserdem massiv skalieren, und zwar horizontal wie vertikal. Denn die Datenmengen werden weiter massiv wachsen und sich geographisch noch stärker auf verschiedenste Infrastrukturen verteilen. Das Backup-Konzept muss in der Lage sein, an Orten, an denen sich grosse Datenmengen konzentrieren, leicht skalierbare und hochperformante Backup-Systeme zu liefern, die diese Mengen in den knappen Zeitfenstern wegschreiben können. Und sie müssen leicht in die Fläche skalieren, um den verteilten mehrstufigen Applikationen und ihren Daten folgen zu können. Denn schliesslich haben Entfernung und Datenmenge massive Auswirkungen auf die Backup-Leistung.

Diese Abstraktion des Komplexen hin zu einem einfach administrierbaren, selbstheilenden offenen System, das die Verantwortung für die Daten demokratisch auf mehrere Schultern verteilt, leitet auch die wichtigen nächsten Schritte ein, um das Backup und die Wiederherstellung von Daten als Prozess in künftigen „Infrastracture as Code“-Modellen definieren zu können. Die physische Welt wird sozusagen ausgeklammert. Veritas als Marktführer auf dem Gebiet Backup arbeitet an genau solchen Automatismen, damit Kunden ihre Daten in heutigen und künftigen Umgebungen zuverlässig wiederherstellen können.

Autor: Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists, DACH bei Veritas Technologies

Quelle: Veritas

LEAVE A REPLY

Please enter your comment!
Please enter your name here