2018-01-11 08:15:37

Nach Virtualisierung & Cloud: Was bleibt von der Unternehmens-IT?

Wenn die IT-Kapazitäten eines Unternehmens in die Cloud verschoben werden – und dort nur noch virtuelle Ressourcen genutzt werden, dann hinterlässt diese Lösung in den Unternehmen nur noch Switches, Access Points und Router.

Mathias Hein

Mit der Virtualisierung der IT-Abteilung hat bereits die nächste Phase in der Entwicklung begonnen. In den Unternehmen wird bereits mit  der Bereitstellung von noch mehr Computer-Leistung, Speichermedien, Netzwerken und vieles mehr experimentiert. Die daraus resultierenden technischen Vorteile lassen sich jedoch nicht problemlos in den zukünftigen IT-Strategien aller Unternehmen unterbringen. Dabei gilt es auch zu bedenken, was uns die Mahner der IT-Branche immer wieder predigen: IT-Budgets haben sich nach dem Platzen der Internet-Blase noch immer nicht vollständig erholt. Eine häufig Faustregel der IT lautet: Jedes Jahr müssen 10 Prozent mehr IT-Leistungen, bei 10 Prozent weniger Finanzmitteln, realisiert werden. Im IT-Geschäft geht es heute Vielfach um die Kostenkontrolle. Diese erstreckt sich sowohl auf die Investitionsausgaben (CapEx) als auch auf die Betriebskosten (OpEx). Es ist auch keine Überraschung, dass die IT von vielen Unternehmen als reine Kostenstelle behandelt und nicht als Profit-Center angesehen wird. Es ist daher auch logisch, dass die Leistung der IT anhand der (zugegebenermaßen vagen) Vorteile für die Produktivität der Endbenutzer beurteilt wird und nicht anhand der Umsetzung cooler neuen Technologien.

Investitionsausgaben vs. Betriebskosten

Eine bewährte Strategie zur Kostenreduktion, die noch vor 15 Jahren ihre Gültigkeit hatte, bestand darin die  empfohlen wurde, bestand darin, die Investitionsausgaben zu erhöhen, um die Betriebskosten senken zu können. Die Investitionskosten (CapEx) beinhaltet die Ausgaben für längerfristige Anlagegüter (beispielsweise für neue Betriebs- und Geschäftsausstattungen, Geräte, Maschinen oder Immobilien). Bestandteil dieser Kosten sind auch die Planungs-, Beratungs- und Installationskosten, die erforderlich sind, um eine bestimmte Installation oder ein Upgrade zu planen, zu installieren und so optimal wie möglich zu konfigurieren. In der IT wurde der CapEx-Bereich als fester Bestandteil der „Schneller-Besser-Höher-Tradition“ verstanden. Die IT profitierte sowohl von den verbesserten Produkten, verbesserten Qualitäten, höheren Leistungen, neuen Produktfunktionalitäten und den technologischen Fortschritt, die dafür sorgten, dass immer innovativere Produkte beschafft werden mussten.

Im Gegensatz zu den Investitionsausgaben, beziehen sich die Betriebsausgaben auf die laufenden Ausgaben für einen funktionierenden operativen Geschäftsbetrieb. Die Betriebskosten (OpEx) sind somit ein Sammelbegriff für alle Kosten (Rohstoffe, Betriebsstoffe, Personal, Leasing, Energie etc.), die durch die Aufrechterhaltung des operativen Geschäftsbetriebs eines Unternehmens verursacht werden.

Unabhängig davon, wie gut die Fähigkeiten der im Unternehmen beschäftigten IT-Spezialisten sind, hat die menschliche Produktivität ihre Grenzen: Die Mitarbeiter müssen auch nach dem produktivsten Arbeitstag ausruhen, schlafen und gelegentlich ein Wochenende mit seiner Familie verbringen. Darüber hinaus neigen Menschen zu gelegentlichen Fehlern.

Eine überkommene Unternehmensstrategie lautete: Investieren wir in neuere Technologien, um die Produktivität unserer IT-Mitarbeitern zu erhöhen! Dadurch werden automatisch die Betriebskosten reduziert und das Unternehmen kann gleichzeitig die Vorteile der neueren Technologien und Produkte nutzen.

Inzwischen weiß man, dass diese Strategie ihre Grenzen hat. Die Investitionsbudgets wuchsen in den vergangenen 10 Jahren nur noch moderat und im Vergleich zu den Gesamtinvestitionen der Unternehmen, wurde der High-Tech-Bereich sogar benachteiligt. Der Zuwachs an Produktivität ist in den Unternehmen gerne gesehen, aber die  notwendigen Betriebs- und Wartungskosten nahmen regelmäßig zu. Teilweise waren die erhöhten Kosten den von den Lieferanten gewährten Preisnachlässen (Rabatten) geschuldet.

Inzwischen werden Strategien gesucht, die zu erheblichen Einsparungen auf der OpEx-Seite führen. Eine dieser Einsparungsstrategien wird als "extreme Virtualisierung" bezeichnet. In Kombination mit den Cloud-Lösungen wird versprochen, dass die IT-Kosten wieder in moderate Größenordnungen zurückgeführt werden können.

Extreme Virtualisierung

Jahrzehntelang wurden die Investitionen für Leistungsverbesserungen (beispielsweise dem Upgrade am Arbeitsplatz auf Minimum 1 GBit/s Ethernet), der verbesserten Funknetzabdeckung und die Kapazitätsverbesserungen für die WLANs, spezialisierte Hardware für das Performance-Management und einer breiten Palette von Sicherheitslösungen, genutzt. Die Produkte ermöglichten die Realisierung hochgradig kundenspezifischer Lösungen, die bei Bedarf eine schrittweise Erweiterung ermöglichten. Diese Lösungen hatten jedoch eine hohe Komplexität zur Folge, was sich natürlich in einer Erhöhung der Betriebskosten resultierte. Durch neue Funktionen und Möglichkeiten sorgten immer neue Produkte dafür, dass die 10%-Kostenregeln immer wieder eingehalten werden konnten.

Die Möglichkeiten der Virtualisierung und die Bereitstellung von Cloud-Plattformen versprechen inzwischen eine weitere Einsparungsstufe.

Unter dem Begriff „Virtualisierung“ versteht man in der Informatik die Nachbildung eines Hard- oder Software-Objekts durch ein ähnliches Objekt vom selben Typ mit Hilfe eines Abstraktions-Layers. Dadurch lassen sich virtuelle (d.h. nicht-physische) Geräte oder Dienste wie emulierte Hardware, Betriebssysteme, Speicher, Netzressourcen erzeugen. Dies erlaubt es Computer-Ressourcen (im Server-Bereich) transparent zusammenzufassen oder aufzuteilen, oder ein Betriebssystem innerhalb eines anderen auszuführen.

Somit kann die Virtualisierung alle Funktionen und Fähigkeiten umfassen, die historisch auf einer lokal in einem Unternehmen bereitgestellter Hard- und Software basieren, umfassen. Diese Lösungen werden heute als Dienste in der Cloud bereitgestellt. Durch die Migration der Services in die Cloud bewegten sich die Kosten vom CapEx zu OpEx.

Alle Recheninfrastrukturen (Server im herkömmlichen Sinn) stehen inzwischen auch als Cloud-basierte Dienste bereit. Die virtuellen Server (und virtuellen Maschinen auf physischen Servern in Cloud-Umgebungen) lassen sich in gleicher Weise wie lokal im eigenen Unternehmen verfügbare Hardware nutzen. Dies gilt auch für Massenspeicher, wobei die WAN-Performance der einzige Faktor ist, der derzeit den Übergang zum Cloud-Speicher im großen Stil verhindert.

Auch im Bereich der Netzvirtualisierung bzw. im Bereich der Network Functions Virtualization (NFV) wurden inzwischen große Fortschritte erzielt. Der Großteil der Aktivitäten in diesem Bereich bezog sich auf Carrier- und Service-Provider-Lösungen. Inzwischen können auch normale Unternehmen die lokale Netzwerkfunktionen und den daran angeschlossenen Service bei Bedarf aus der Cloud beziehen. Das so genannte Software-Defined Networking" (SDN) eröffnet in diesem Bereich neue Wege: Durch die Bereitstellung strategischer Komponenten in der Cloud (beispielsweise ein SDN-Controller) werden im Interesse einer höheren Flexibilität lokale Netzwerkkomponenten ersetzt und folglich weitere Betriebskostensenkungen erzielt. Des weiteren werden auch erhebliche Teile des Management- und Betriebsarsenals in die Cloud verschoben. Die für den Betrieb notwendigen Managementkonsolen kommen inzwischen aus der Cloud. Die dadurch entstehenden Servicekosten (einschließlich Wartung und Erweiterungen) werden den Unternehmen monatlich in Rechnung gestellt.

Was bleibt von der IT in den Unternehmen noch übrig?

Konzentriert man sich auf die Anforderungen an die Netzwerke in den Unternehmen, dann reduzieren sich die Anforderungen der IT in Zukunft auf einen sehr begrenzten Funktionsumfang:

WLAN Access Points (APs)

Da die meisten Clients inzwischen drahtlos mit Unternehmensnetzwerken (WLANs) verbunden werden, gehören die bereitgestellten Funkfelder und die darin verfügbaren Übertragungskapazitäten zu den kritischen Faktoren. Die Fortschritte der WLAN-Technologien als Folge von Erweiterungen der IEEE 802.11-Standards führten zu höherer Sicherheit, schnelleren (mit höherer Gesamtkapazität) und zuverlässigeren Verbindungen, niedrigeren Preisen und mehr Wettbewerb. Angesichts der Fortschritte im den Bereichen IEEE 802.11ac Wave 2, Multi-User-MIMO (MU-MIMO), IEEE 802.11ax (bis zu 10 GBit/s) und die Aussichten auf  extrem schnelle WLAN-Technologien im Nahbereich (IEEE 802.11ad und IEEE 802.11ay) scheint es keine WLAN-Kapazitätsobergrenzen mehr zu geben, die den Siegeszug des WLANs noch aufhalten könnte.

Ethernet-Switches

Die Anbindung der Access Points (APs) und die Versorgung dieser Geräte mit Strom sowie die gelegentliche Kabelanbindung einzelner Endgeräte oder Koppelkomponenten (meist aus Sicherheitsgründen) erfolgt auf Basis transparenter Ethernet-Switches. Momentan werden noch Diskussionen über die langfristige Rentabilität der 2,5 MBit/s bzw. 5 MBit/s schnellen Produkte geführt, aber mittelfristig werden diese durch Switches mit durchgehenden 10 GBit/s Ports ersetzt, da diese die sich schnell abzeichnenden Kapazitätserhöhungen im WLAN besser abfangen. 

Eine Hierarchien von Switches (vom Edge- bis in den Core-Bereich) wird auch weiterhin die bevorzugte Architektur bleiben. Der bereitzustellende Durchsatzes wird auch weiterhin im Edge zunehmen und damit kontinuierlich höhere Core-Bandbreiten erfordern. 

Router

Diese Koppelelemente sorgen für die Verbindung zwischen dem Unternehmensnetz und dem WAN des Service Providers. Hierbei handelt es sich um andere Geräte als die Multiprotokoll-Router, die wir noch vor 30 Jahren installiert hatten. (Wer erinnert sich noch an Protokolle wie beispielsweise  (IPX/SPX, XNS, NetBEUI, DECnet, SNA?) Inzwischen ist die Netzwerkindustrie wieder bei seinen Wurzeln (der Nutzung eines einzigen Protolls) angekommen. Die frühen Interface Message Processors (IMPs) stellten die ersten Router des damaligen ARPANETs (Vorläufer des heutigen Internets) dar und waren wahrscheinlich auch eine Art Vorläufer der heutigen Software Defined Networking (SDN) Technologien. Die zukünftigen Router werden natürlich alle IP-Adressierungs- und Routing-Funktionen (NAT/Pat, etc.), VLANs und andere notwendigen Funktionen bereitstellen. Darüber hinaus werden in die Router auch eine breite Palette an Sicherheitsfunktionen, Möglichkeiten zur Verkehrssteuerung und verwandte Features implementiert werden.

Eine besondere Aufgabe der Router wird jedoch die Bereitstellung redundanter WAN-Verbindungen sein, da die Verschiebung von Rechner, Anwendungen und Funktionen in die Cloud einen extrem hohen Bedarf an Kapazität, Redundanz und Verfügbarkeit zur Folge hat.

Alles andere als Service

Die extreme Virtualisierung führt dazu, dass extrem viele Funktionen in der Cloud zur Verfügung und als Dienst bereitgestellt werden. Dazu gehören natürlich alle Server (virtuelle Maschinen) und die benötigten Anwendungen, die Speicher und auch viele Netzwerkfunktionen. Dieser sogenannte “Everything-as-a-Service” (EaaS) Ansatz bietet folgende Vorteile:

  • Verfügbarkeit: Da die EaaS-Infrastruktur in der Cloud residiert und die Cloud mit dem Internet verbunden ist, stehen die erforderlichen Dienste überall zur Verfügung. Es muss jedoch darauf geachtet werden, dass zwischen dem lokal bereitgestellten Service und einem aus einer Cloud-basierten Infrastruktur heraus gelieferten Service keine rechtlichen und sicherheitstechnischen Unterschiede bestehen dürfen.
  • Zuverlässigkeit und Ausfallsicherheit: Die Cloud-Angebote unterscheiden sich nicht nur im Preis und den bereitgestellten Kapazität und Funktionen, sondern auch in Bezug auf die Verfügbarkeit, Zuverlässigkeit und Ausfallsicherheit. Bei der Auswahl eines oder mehrerer Anbieter im Cloud-Services-Bereich muss darauf geachtet werden, dass die notwendigen Garantien nicht nur zugesichert, sondern auch vertraglich eingehalten werden.
  • Skalierbarkeit: Ist mehr Kapazität erforderlich? Das sollt kein Problem darstellen. Die Anbieter übertrumpfen sich bereits heute mit immer größeren und preiswerteren Kapazitätszusagen. Dadurch stehen den Kunden quasi ein fast unbegrenztes Wachstumspotential zur Verfügung, welches sie bei Bedarf abrufen können.

Kontrollierte Evolution

Upgrades und Erweiterungen erfordern traditionell große Budgets, eine sorgfältige Planung und die passgenaue Bereitstellung. Das EaaS-Modell verschiebt diese Verantwortung in den Bereich der Dienstleister. Diese sollten daher auch erhebliche Erfahrung und Expertise in diesen Bereichen aufweisen können. Auch in diesem Bereich ist zu erwarten, dass der Wettbewerb die Kosten mittelfristig reduziert. Die Anbieter werden ihr Wissen, ihre Methoden und Verfahren erweitern und diese über Skaleneffekte amortisieren. Damit ist auch der lange Weg der IT von den CapEx-bezogenen Kosten hin zu OpEx-bezogenen Kosten abgeschlossen. Dies eröffnet das Potenzial für massive Einsparungen über den gesamten Lebenszyklus einer bestimmten Lösung. Das Virtualisierungskonzept lässt sich sogar bis zum Rand des Netzwerks – bis in die Geräte, die für den Zugriff auf das Netzwerk verwendet werden - ausdehnen.

Das grundlegende Konzept der extremen Virtualisierung ist relativ einfach: Es wird ein kontinuierliche Zugriff auf die erforderlichen Computer und Informationen bereitgestellt. Sollten sich die Anforderungen an die Lösung im Laufe der Zeit ändern, bleibt dieser Zugriff auf die benötigten Ressourcen erhalten. Der Vorteil besteht darin, dass sowohl die traditionellen kapitalintensiven Investitionen in Anlagen als auch die laufenden Wartungen und Upgrades von Netzwerk- und IT-Infrastrukturen durch externe Services ersetzt werden. Man könnte dieses Modell sogar noch weiter ausdehnen und auch die beim Kunden zu installierenden Koppelkomponenten und Endgeräte in das Vermarktungsmodell aufnehmen.

Ein potenzielles Problem für die vielen unterschiedlichen Anforderungen liegt in der Notwendigkeit einer extrem hohen Verfügbarkeit der Netzressourcen. Es soll sich daher niemand mehr täuschen: Ein Ausfall der externen Verbindung führt zum Stillstand des gesamten Unternehmens! Das aus der Cloud resultierende Echtzeitmodell für den Informationszugriff bedeutet, dass jeder Dienst zu 100 Prozent von der Verfügbarkeit des Transportnetzes abhängig ist.

Druckversion