2018-09-24 05:22:06

Rasante Digitalisierung von Unternehmen und Geschäftsmodellen

Wirtschaft und Politik sprechen seit zwei Jahrzehnten über Datenwachstum, aber derzeit beschleunigt sich dieses wie nie zuvor. Tatsächlich wurden allein in den letzten zwei Jahren 90 Prozent der weltweiten Daten erstellt. Eine der größten Veränderungen ist, dass die meisten der heute erstellten Daten von Maschinen und nicht von Menschen, die Anwendungen verwenden, generiert werden.

Die neue Herausforderung besteht darin, dass diese Daten „Schwerkraft haben“. Wenn Daten am Netzwerkrand oder am Fertigungsstandort erstellt werden, können sie möglicherweise nicht in ein zentrales Rechenzentrum oder die Cloud verschoben werden, um in Echtzeit verarbeitet zu werden, wie es für das Unternehmen vielleicht erforderlich wäre. Pure Storage beleuchtet das Thema der „Datengravitation“ und kommt zu dem Schluss: eine datenzentrierte IT-Infrastruktur ist das Gebot der Stunde. „Unternehmen müssen in der Lage sein, Daten dort zu analysieren und darauf zu reagieren, wo sie entstehen. Künstliche Intelligenz (KI) und Deep Learning (DL) heben das, was mit Analytik möglich ist, auf die nächste Stufe und beeinflussen jede Branche“, erklärt Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage. „Bis zum Jahr 2020, so prognostiziert Gartner, wird KI in fast allen softwaregesteuerten Produkten und Dienstleistungen enthalten sein.“

Diese „KI-Chance“ ist nach Meinung von Pure Storage besonders vielversprechend. Zum einen hilft sie, große Daten zu analysieren und zu transformieren, um über das menschliche Bewusstsein hinauszugehen. Zweitens ermöglicht sie, spannende neue Dienstleistungen für Kunden aufzubauen. Schließlich, können Unternehmen so die Infrastruktur automatisieren, was einen wesentlich effizienteren und zuverlässigeren Betrieb ermöglicht.

Die Herausforderung besteht darin, dass die heutige Infrastruktur nicht von Grund auf neu erstellt wurde, um eine kohärente Datenstrategie zu implementieren. Sie wurde im Laufe der Zeit, Projekt für Projekt, aufgebaut und ist höchstwahrscheinlich fragmentiert und nicht besonders „Cloud-artig“, also das Gegenteil von einfach, skalierbar und agil. Angesichts der Bedeutung und des Wertes von Daten ist es an der Zeit, die IT-Infrastruktur von Grund auf zu überdenken und die Daten in den Mittelpunkt des Designs zu stellen. Unternehmen müssen nach Meinung von Pure Storage in den Aufbau einer wirklich datenzentrischen Architektur investieren, die auf fünf Schlüsselprinzipien basiert. 

Konsolidiert und vereinfacht

Um die Effizienz zu steigern und das Potenzial der Daten zu nutzen, ist es unerlässlich, die bisherigen „Dateninseln“ zu konsolidieren und zu verlassen. Hier macht All-Flash als Speichermedium den Unterschied, denn es ermöglicht die Konsolidierung vieler Anwendungen zu großen Speicherpools, in denen die bisherigen Speicherebenen vereinfacht werden können. „Dies fördert die Effizienz, Agilität und Sicherheit. Die Verwaltung kann auch konvergiert werden, um sicherzustellen, dass der Speicher gut zur Infrastruktur-Orchestrierungsstrategie des Unternehmens passt“, erläutert Güner Aksoy.

Echtzeit

Die zweite Dimension ist, dass Unternehmen für Echtzeit-Anwendungen bereit sein müssen, da langsame Daten einfach keine Option mehr sind. Echtzeitdaten machen Anwendungen schneller, Kundenerlebnisse besser und intensiver sowie die Mitarbeiter produktiver. Es ist auch erwähnenswert, dass Echtzeit nicht nur Echtzeitdaten bedeutet, sondern auch Echtzeitkopien. Dies ist die Möglichkeit, Kopien von Daten zu erstellen und diese einfach zwischen mehreren Nutzern auszutauschen, z.B. neue Kopien von Produktionsdaten, die mit Test und Entwicklung geteilt werden.

On-Demand und Self-Driving

Diese dritte Säule, On-Demand und Self-Driving, stellt einen Paradigmenwechsel im Hinblick darauf dar, wie wir über den Speicherbetrieb für das Unternehmen denken. Was wäre, wenn das Storage-Team nicht als Storage Operations Team, sondern als interner Storage Service Provider für den Kunden X agieren würde? Und wenn jedem Entwicklungsteam Daten als Service auf Abruf zur Verfügung gestellt werden könnten, genauso, wie Entwickler Daten aus der Public Cloud beziehen? Statt des endlosen Zyklus der reaktiven Fehlersuche könnte das Storage-Team seine Zeit damit verbringen, die Infrastruktur zu automatisieren und zu orchestrieren, um sie selbstfahrend und ultra-agil zu machen.

„Damit dies jedoch Realität wird, bedarf es einiger bedeutender Änderungen in der Art und Weise, wie gearbeitet wird. Unternehmen müssen heute die Geschäftsanforderungen antizipieren und eine Reihe von elastisch skalierbaren Speicherdiensten aufbauen, die es Ihnen ermöglichen, der Zeit und dem Speicherbedarf voraus zu sein“, erklärt Güner Aksoy. „Im Frontend geht es um Standard-Services und Standard-APIs. Im Backend hingegen geht es um die Automatisierung der Administration – und die Werkzeuge, um dies zu erreichen, werden zunehmend zugänglich und sind sehr ausgefeilt.“

Multi-Cloud

Die zukünftige Architektur wird nach Meinung von Pure Storage die Multi-Cloud sein, auch wenn alles vor Ort betrieben wird. Eine typische Geschäftsumgebung sieht heute so aus: Es gibt eine Produktions-Cloud. Das Unternehmen unterstützt zudem wahrscheinlich mehrere Entwicklungsumgebungen und betreibt wahrscheinlich eine Cloud für Analysen und ein globales Backup-Netzwerk. Jede dieser Einzelumgebungen soll zunehmend im Cloud-Modell laufen, wobei die gleichen Cloud-Attribute erwartet werden: Einfach, On-Demand, elastisch und ein Treiber für Innovation. Gleichzeitig hat jede Einzelumgebung ihre eigenen Anforderungen. Dies bedeutet, dass Unternehmen eine Datenstrategie der nächsten Generation entwickeln müssen, die das Cloud-Datenerlebnis für jede dieser Umgebungen bereitstellt, aber auch die einzigartigen Funktionen berücksichtigt, die diese Einzelumgebungen benötigen.

Aus diesem Grund sollte eine datenzentrische Architektur auf Multi-Cloud ausgelegt sein. Dies impliziert, dass Daten über mehrere Clouds hinweg verwaltet und die erforderliche Datenportierbarkeit und Offenheit erreicht werden muss. Wird nicht in diese Richtung hin geplant, besteht die reale Gefahr, dass Unternehmen sich in ihrer Infrastruktur einsperren.

Bereit für morgen

Unternehmen müssen sich der Realität stellen, wie schnell sich die Daten bewegen. Vor etwa acht Jahren benötigte 1 Petabyte Flash sechs Racks Platz, und KI war ein Forschungsprojekt. Heute lassen sich 1 Petabyte in weniger als 3U speichern, und KI und Automatisierung werden zum Mainstream. Daten bewegen sich schnell. Unternehmen müssen daher eine Architektur entwerfen, die bereits die Performance für morgen bietet, aber so aufgebaut ist, dass sie sich weiterentwickelt und innovativ bleibt.

Was bedeutet das alles? Die Lösung ist eine datenzentrische Architektur, die auf Flash konsolidiert wurde, Echtzeitprozesse im Unternehmen unterstützt und Daten als Service für die verschiedenen internen Clouds bereitstellt. Eine datenzentrische Architektur ermöglicht es, die Leistung von Kernanwendungen zu vereinfachen und gleichzeitig die IT-Kosten zu senken. Sie versorgt Entwickler mit On-Demand-Daten, ermöglicht es, Builds schneller zu erstellen und bietet die für DevOps und die kontinuierliche Integration/Bereitstellung erforderliche Agilität. 

„Eine solche Architektur wird auch die nächste Generation von Analysen liefern und als Datendrehscheibe für die moderne Datenpipeline fungieren, einschließlich der Unterstützung von KI-Initiativen. Kurz gesagt, eine datenzentrische Architektur stellt Unternehmen die Plattform zur Verfügung, um ihr Geschäft zu beschleunigen und der Konkurrenz einen Schritt voraus zu sein“, fasst Güner Aksoy abschließend zusammen.

log

Druckversion