2018-09-14 08:04:44

Wird QoS irgendwann einmal irrelevant?

Mathias Hein

Mathias Hein

Die Weiterentwicklung der UC-Kommunikation erfordert immer komplexere Quality-of-Service-Strategien. Sind wir an einem Punkt angelangt, an dem QoS für den normalen Gebrauch zu komplex wird? Bedeuten Cloud Services, die über das Internet zur Verfügung gestellt werden, dass QoS irrelevant ist; von Mathias Hein*)

Das Modell der Differentiated Services (DiffServ) dient der Priorisierung der verschiedenen Arten von Datenverkehr, damit Anwendungen wie Sprach-, Video- und interaktive Geschäftsanwendungen Vorrang vor weniger zeitkritischen Datenflüssen erhalten. Im DiffServ-Modell wird dazu im IP-Header ein Differentiated Services Code Point (DSCP)-Wert eingestellt. Während mit DSCP bis zu 64 verschiedene Pro-Hop-Verhaltensweisen spezifiziert werden können, verwenden die meisten QoS-Designs nur sechs bis zwölf dieser Code Points.

Die IETF-Dokumente beschreiben die Mechanismen der Pro-Hop-Verhaltensweisen ziemlich detailliert. Ein Teil der Lösung basiert auf unterschiedlichen Prioritätswarteschlangen. Eine dieser Warteschlangen ist typischerweise für zeitkritische Protokolle wie Sprache reserviert. Einige QoS-Designs sind auch in der Lage, bestimmte andere Datenströme (beispielsweise das Precision Time Protocol (PTP)) zu priorisieren.

Das DSCP-Konzept besteht aus drei Grundfunktionen: der Klassifizierung, der Markierung und der Warteschlange. Die Klassifizierung, die typischerweise am Eingang des Netzwerks durchgeführt wird, identifiziert verschiedene Verkehrsklassen. Sobald ein Paket klassifiziert ist, wird dessen Header durch Hinzufügen bzw. Ändern des QoS-Tags markiert. Die Durchführung der Klassifizierung und Markierung am Rande des Netzwerks ermöglicht es, den im Weiterleitungspfad nachfolgenden Netzwerkkomponenten, effizient Weiterleitungsentscheidungen zu treffen. Der Vorteil: Diese Komponenten müssen die Klassifizierungsfunktion nicht wiederholen. Die ankommenden Pakete werden dann entsprechend ihrer Klassifizierung und Kennzeichnung in die jeweilige Warteschlange gestellt. Dadurch können Pakete mit höherer Priorität gegenüber Paketen mit niedrigerer Priorität für die weitere Übertragung bevorzugt werden.

Die QoS-Mechanismen werden jedoch nur während einer Überlastung genutzt. Das heißt: Es sollen über eine Verbindung mehr Pakete gesendet werden, als dieser Link verarbeiten kann. Die Koppelkomponenten im Netzwerk müssen daher nur dann eine Warteschlangen-Entscheidung treffen, wenn zu viele Pakete über eine Verbindung gesendet werden müssen. Im Idealfall werden die Pakete mit der höchsten Priorität zuerst ausgewählt, gefolgt von Paketen mit niedrigerer Priorität. Die von DSCP definierten 64 Verkehrsklassen bieten daher viel Flexibilität.

Herausforderungen bei der QoS-Klassifizierung

In der Theorie sollten die Endpunkte in der Lage sein, die zu übertragenden Pakete ihrerseits bereits am Entstehungsort zu markieren. Aber das Fehlen eines einheitlichen QoS-Modells und die QoS-Ignoranz vieler Anwendungen zwingt die Unternehmen, die Klassifizierung und die Markierung an der Stelle durchzuführen, an der sich die Endpunkte mit dem Netzwerk verbinden (Ingress Access Layer). Jedoch wird die Umsetzung der Klassifizierung inzwischen immer schwieriger.

Desktops, Laptops und Tablets sind die klassischen Quellen für Datenverkehre mit niedriger Priorität. Geschäftsdaten mit höherer Priorität sowie Sprache und Video sollten über eine hohe Priorität verfügen. In der Vergangenheit separierten viele Netzplaner die im Netzwerk integrierten Telefone durch einen eigenen Adressbereich (VLAN, Subnetz). Diese Paketzusätze wurden anschließend zur Klassifizierung genutzt. Aber da die Grenzen zwischen Daten und UC&C inzwischen verschwimmen, wird die Erstellung zuverlässiger Klassifizierungsregeln immer mehr zu einer Herausforderung. Eine mögliche Antwort auf diese Herausforderung ist die Verwendung der netzwerkbasierten Anwendungserkennung. Aber mit der zunehmenden Verbreitung integrierter Anwendungen funktioniert auch diese Lösung möglicherweise nicht in allen Fällen.

Microbursts erschweren die Verkehrssteuerung

QoS wird nur bei Staus bzw. Überlastungen im Netzwerk verwendet. Die Komplexität der QoS-Konfiguration führt dazu, dass viele Unternehmen dazu übergehen, die Verbindungsgeschwindigkeiten so weit zu erhöhen, dass es nie zu einer Überlastung kommen kann. Populär ausgedrückt heißt das: Die Unternehmen werfen so lange mit preiswerter Bandbreite nach dem Problem, bis es verschwindet. Diese Denkweise ignoriert jedoch das Vorhandensein von Microbursts. Ein Microburst ist eine kurze Zeitspanne, in der mehrere Pakete von einem Netzinterface in einem Burst empfangen werden. Dies geschieht beispielsweise, wenn ein Nutzer an seinem Arbeitsplatz ein Bild oder ein großes Dokument herunterlädt. Dies geschieht auch, wenn von einer Webseite über den Browser mehrere TCP-Verbindungen geöffnet werden, um den Aufbau der Webseite zu beschleunigen.

In der heute in den Unternehmen typischerweise genutzten Netzumgebung werden 10 GBit/s-Verbindungen im Netzwerkkern und 1 GBit/s schnelle Verbindungen zum Endgerät genutzt. Wird eine TCP-Verbindung vom Endgerät zu einem Server aufgebaut, tauscht das TCP-Protokoll zuerst einige Handshakes zwischen den an der Verbindung beteiligten Komponenten aus. Die TCP-Fenstergröße verdoppelt sich nach jedem Round-Trip (Hin- und Rücksenden von Paketen). Ein Burst von 64 Paketen kann daher bereits nach nur sieben Round-Trips gesendet werden. Eine 10G-Server-Infrastruktur kann problemlos einen großen Burst produzieren, der die Warteschlangen auf einer nachgelagerten 1GBit/s-Schnittstelle überfordern kann. Dies kann zu unerwünschtem Paketverlusten und einem höheren Jitter führen. TCP reagiert auf die durch den Stau verursachten Paketverluste durch die Anpassung seiner Übertragungsrate. Das UDP-Protokoll kennt jedoch solche Staubereinigungsmechanismen nicht und wird weiterhin die Verbindung überfordern. In einem solchen Fall müssen die QoS-Mechanismen genutzt werden, um die Paketverluste durch Microbursts nicht zu groß werden zu lassen.

Wo QoS gut funktioniert

In Unternehmen, die über eine angemessene Kontrolle über ihre Endpunkte und Infrastrukturen verfügen, funktioniert das oben beschriebene QoS-Modell sehr gut. Verfügt ein Unternehmen über entsprechende Mechanismen, die es ihm ermöglicht, die UC-Endpunkte und -Flüsse zu identifizieren, lassen sich die Klassifizierungs- und Markierungsprozesse effizient durchführen. Als kurzfristige Lösung kann ein Unternehmen auch ausreichende Bandbreite bereitstellen, so dass die Warteschlangen selten genutzt werden müssen und die Microbursts in der Datenübertragung kurz genug sind, um die UC&C-Anwendungen nicht zu beeinträchtigen.

Will man über das WAN kommunizieren, nutzen viele Unternehmen dazu das Multiprotocol Label Switching (MPLS). Dieser Übertragungsmechanismus unterstützt QoS. Das ist eines der großen Verkaufsargumente für private WAN-Dienste. Die Unternehmen kaufen Bandbreite von einem WAN-Anbieter und verwenden dann QoS, um den Datenverkehr zu priorisieren, der die Verbindungen passieren muss.

Wo QoS schlecht funktioniert

QoS funktioniert nicht über das öffentliche Internet. Denn QoS erfordert die Zusammenarbeit zwischen den jeweiligen Prioritätsebenen. Jeder Nutzer des Internets hält den von ihm erzeugten Verkehr für das Wichtigste und eine Einigung unter den Teilnehmern zur Aufteilung der verfügbaren Übertragungsbandbreite wird dadurch unmöglich. Das Ergebnis ist, dass QoS-Markierungen im Internet ignoriert werden.

Der Mangel an QoS im Internet sorgt beispielsweise für Probleme für Cloud-basierte Anwendungen, bei denen eigentlich die QoS-Mechanismen genutzt werden sollten. Verteilte UC-Endpunkte, die für die Konnektivität auf den Internet-Zugang angewiesen sind (beispielsweise Telearbeiter), können die Vorteile von QoS ebenfalls nicht nutzen. Konferenzsysteme, ein weiterer beliebter Cloud-basierter Dienst, werden ebenfalls durch das Fehlen von QoS behindert. 

QoS richtig nutzen

Eine Möglichkeit, die QoS-Funktionen optimal zu nutzen, besteht darin, alle zeitkritischen Anwendungen im Unternehmen zu konzentrieren. Diese Strategie ist jedoch oftmals aus finanziellen Gründen nicht durchsetzungsfähig.

Die meisten Anbieter von Netzwerkgeräten bieten inzwischen softwaredefinierte WAN (SD-WAN) Produkte an. Diese erkennen und verwalten die Übertragungseigenschaften mehrerer Übertragungspfade. SD-WAN-Geräte erkennen, wann der Internetpfad einen für die Sprache geeigneten Servicelevel benötigt. Steigen die Latenzzeit und die Paketverluste (typischerweise an Wochentagen nachmittags) an, kann der zeitkritische Datenverkehr dann auf die teureren MPLS-Pfade umgeleitet werden. Die Netzwerkadministratoren können bei diesen Lösungen die Kriterien für die Priorisierung von Verkehren und der zu nutzenden Links für ihren Mix aus Anwendungen und Verbindungstypen festlegen. Folglich kann bei SD-WAN festgelegt werden, dass der Sprachverkehr nur Transitverbindungen mit bestimmten Eigenschaften (weniger als 1% Paketverlust, weniger als 100ms Latenz, etc.) nutzt. 

Ein weiterer Lösungsansatz für QoS besteht darin, dass die Anwendungsserver mit dem Klassifizierungs- und Kennzeichnungssystem des Netzwerks kommunizieren. Soll beispielsweise eine Sprachverbindung eingeleitet werden, weist die Anrufsteuerung die QoS-Anwendung an, eine Eingangsmarkierung für einen bestimmten Verkehrsfluss durchzuführen. Die QoS-Markierung wird dann in der ersten Koppelkomponente im Zugangsbereich (wo der Endpunkt mit der Unternehmensinfrastruktur verbunden ist) oder dort, wo der Datenstrom von der externen Verbindung in das Unternehmen gelangt, überprüft und umgesetzt. Eine Interaktion zwischen den Anwendungen und dem Netzwerk ist jedoch selten und nur wenige Netzwerkanbieter bieten hierfür die erforderliche Funktionalität.

Fazit

QoS innerhalb eines Unternehmens sorgt für den gesicherten Transport von zeitkritischen Anwendungen sowie für Sprache und Video. Cloud-basierte Anwendungen, die eine Kommunikation über das Internet erfordern, können sich nicht immer auf QoS verlassen. In diesem Fall sind die Möglichkeiten zur Verbesserung der Übertragungsqualität für den Administrator recht beschränkt.

Das gezielte Hinzufügen von Bandbreite zu einem Link kann die QoS-Probleme kurzfristig lösen, aber als langfristige Lösung taugt diese Vorgehensweise nicht. SD-WAN ist eine hervorragende Lösung zur Optimierung der QoS über unterschiedliche Pfade und zur kostengünstigen Bereitstellung redundanter Pfade. Die Integration von QoS in die Anwendungen und die nachfolgende Umsetzung im Netzwerk steckt noch immer in den Kinderschuhen, so dass wir uns auf andere QoS-Mechanismen verlassen müssen.

Auch die Veränderungen in den Anwendungen und deren Verschmelzungen mit Echtzeitfunktionen machen die Netzwerkerei immer schwieriger. Die Zeit wird zeigen, ob QoS wirklich irrelevant wird.

*) Mathias Hein, Chief Marketing Officer bei Allegro Packets

log

Druckversion

Zum Thema