2018-09-24 19:32:57

Regelmäßige Vorsorgeuntersuchungen sind gut für die Netzwerke

Regelmäßige Gesundheitschecks, die alle Aspekte der Netzsysteme (Software, Hardware, Konfiguration und Anwendungen) eingehend untersuchen, sind der Schlüssel zu einem langen und stabilen Kommunikationsleben.

Keiner geht gerne zum Arzt, denn niemand möchte mit dem Makel einer „Krankheit“ – und damit fehlender Performance – behaftet sein. Natürlich ist uns der Wert von Vorsorgeprogrammen bewusst. Man weiß auch, dass diese einen umso größeren Wert besitzen, je früher man im Lebenszyklus damit beginnt. Will sagen: Je eher eine Krankheit erkannt wird, je besser kann diese kuriert werden.

Der Sinn der Präventivmedizin besteht darin, kleinere Beschwerden sofort zu beheben, als sich den Rest seines Lebens mit einem großen Problem herumzuschlagen.

Auch in den IT-Umgebungen müssen regelmäßige Vorsorgeuntersuchungen vorgenommen und die IT-Ressourcen an die neue Realität angepasst werden. Wie die kleinen Wehwehchen und die kurzzeitigen Kopfschmerzen können temporäre Lücken in der Verfügbarkeit der Dienste oder eine schlechte Sprachqualität gewisse Hinweise auf viel größere Probleme geben. Das Ignorieren eines Problems, in der Hoffnung, dass dieses von allein verschwindet, war noch nie eine gute Strategie.

Die modernen Kommunikationssysteme bestehen aus einer Unmenge an miteinander kooperierenden Teilen. Im Kern kann man sich ein IT-System als eine Form von Kommunikationsvermittlungsmaschinen vorstellen. Der Server verwaltet die Nutzer und stellt die notwendigen Funktionen für den Zugang zur Verfügung und verwaltet die Peripheriegeräte. Ergänzt wird die zentrale Funktion durch Server, die alles, von der Voicemail, über die Produktionssysteme bis hin zur internen Buchhaltung, bereitstellen. Durch weitere Zugangselemente (beispielsweise Internet-Anbindungen und SIP-Trunks) wird das interne IT-System mit der Außenwelt verbunden. Die verschiedenen Endgeräte (Hard- und Softphones, mobile Telefone, Smartphones, PCs) stellen die Kommunikationsmechanismen für die Nutzer zur Verfügung. Schließlich ermöglichen die Management-Tools den Administratoren, die Einzelkomponenten in ein zusammenhängendes Ganzes zu konfigurieren und zu verwalten.

Natürlich darf das alle Teile im Unternehmen miteinander verbindende Netzwerk nicht vernachlässigt werden. Hierzu gehören Router, Switches, Firewalls, Wireless-Controller und sogar die Verkabelung. Jedes dieser Teile spielt eine wichtige Rolle bei der Bereitstellung von Kommunikation im Unternehmen, und bereits der kleinste Fehler kann dem Administrator großes Kopfzerbrechen bereiten. Bereits ein nicht ordnungsgemäß konfigurierter Port auf einem Switch kann den Verkehr im Unternehmen zum Erliegen bzw. zum Stottern bringen.

Die Erfahrung lehrt, dass ein Kommunikationssystem etwa sechs Monate nach der Installation mit der optimalen Leistung arbeitet. Alle anfänglichen Integrationspannen wurden bereinigt und die Konfiguration befindet sich im optimalen Zustand. Im Zeitraum nach diesem Optimum schleichen sich langsam kleine Mängel ein. Neue Server werden hinzugefügt und neue Dienste werden integriert. Die einstmals perfekte Konfiguration wird von verschiedenen Administratoren – aufgrund ihrer Verbesserungs- und Änderungsmaßnahmen – „verschlimmbessert“. Die installierte Software und Firmware ist nicht mehr auf dem aktuellen Stand und die jeweiligen Komponenten werden unabhängig voneinander einem Update unterzogen, neue Netzsegmente in Betrieb genommen und neue Endpunkte hinzugefügt. Die zuvor gut geölte Netzwerkmaschine kommt langsam ins Stottern und die Qualität der Verbindungen leidet bzw. die Verbindungen brechen ab.

Mit der Zeit wird auch an einigen Stellen im Unternehmen die Hardware nicht gepflegt bzw. keinem Update unterzogen. Dies führt irgendwann dazu, dass Probleme auftreten. Unter Umständen gibt es inzwischen ein Ersatzsystem, welches wesentlich schneller arbeitet bzw. größere Kapazitäten aufweist. Aber auch der umgekehrte Fall ist möglich: Das Gerät ist inzwischen so „alt“, dass der Hersteller die betreffende Hardware nicht mehr unterstützt.

Stellt ein Hersteller den Support für ein Gerät ein, dann steht die IT-Abteilung vor einem ernsten Problem. Entweder man besorgt sich die notwendigen Ersatzteile auf dem Markt (auf den IT-Schrottplätzen der Welt) oder man plant sein Netzwerk um und installiert die Nachfolgegeneration.

Auch sind die Zeiten lange vorbei, als man noch sagen konnte, dass ein Kommunikationssystem mit einer bestimmten Software-Version arbeitet. Unter Umständen hat der Hersteller die Produktion neuer Software-Versionen eingestellt und es gibt keine Patches und Sicherheits-Updates mehr. Moderne Kommunikationssysteme bestehen aus vielen verschiedenen Software-Komponenten. Daher können alte Software-Versionen alle möglichen Probleme verursachen und das Zusammenspiel mit neueren Software-Versionen erschweren.

VoIP und Video im Netz erfordert Echtzeitqualitäten

Ein Großteil der Echtzeit-Verkehre in den Unternehmensnetzen basiert auf der Sprache und auf Video. Hinzu kommen noch einige interaktive Anwendungen im Bereich der Kollaboration. Bei den Echtzeit-Verkehren unterscheidet man zwischen zwei Arten:

  • Streaming-Media: Dient beispielsweise der Übermittlung von Trainingsvideos und YouTube. Die Informationen bei Streaming-Media werden üblicherweise auf Basis des TCP-Protokolls übermittelt. Bei dieser Art der Anwendungen wird für die Daten ein Wiedergabepuffer (Puffer zum Abspielen der Daten und zur Fehlerkorrektur) angelegt. Da Streaming-Media die TCP-Mechanismen nutzt, ist diese Anwendung auch für alle Probleme bei Staus im Netzwerk anfällig.
  • Interaktive Echtzeitübermittlung: Zu dieser Übertragungsart gehören Sprachanrufe und Videokonferenzen. Bei der Kollaboration wird unter anderem die Sprach-, Videokommunikation von mehreren gleichzeitigen Nutzern zur interaktiven Bearbeitung von Dokumenten genutzt. Die interaktive Sprach- und Videokommunikation nutzt typischerweise das User Datagram Protocol (UDP) für den Transport der Informationen. Da UDP zu den ungesicherten Protokollen gehört, kann es vorkommen, dass auf dem Transportweg einige Datenpakete verloren gehen. Die heute von diesen Anwendungen genutzten Codecs tolerieren einzelne verloren gegangene Pakete (kleinere Paketverluste) und die menschliche Seh- bzw. Hörweise ignoriert in der Regel (aufgrund der Trägheit) auch ein paar Pannen aufgrund von Paketverlust. Das Problem tritt erst dann zu Tage, wenn das Netzwerk so überlastet ist, dass Bursts von Paketen verworfen werden bzw. nicht beim Empfänger ankommen. Auch werden vom Empfänger deutlich verzögerte bzw. zu spät im Eingangspuffer eintreffende UDP-Pakete als Jitterfehler und wie verloren gegangene Pakete behandelt. Diese Pakete kommen einfach bei der Zielanwendung (Telefon oder Videokonferenzsystem) zu spät für die Wiedergabe an und wirken daher wie Paketverluste. Die Paketverluste bei der UDP-Übermittlung können sowohl bei niedrigen als auch bei hohen verfügbaren Bandbreiten im Netz auftreten.

Kontrolle der Verkehre: QoS und Policy-Routing

Das einzige Werkzeug zur Steuerung von Verkehrsstaus und zur Vermeidung von Paketverlusten beim UDP-Protokoll besteht in der Nutzung der Quality-of-Service-Funktionen (QoS). QoS basiert auf folgenden Mechanismen: Einstufung, Kennzeichnung und Weiterleitung. Dabei wird der gesamte Datenverkehr klassifiziert (priorisiert), wobei die Sprachübermittlung die höchste Priorität erhält. Den Videoströmen wird die zweithöchste Priorität zugeteilt. Die auf dem TCP-Protokoll basierenden Anwendungen erhalten in der Regel eine mittlere oder niedrige (best effort) Priorität. Sobald Pakete klassifiziert sind, werden diese markiert. Hierzu wird der entsprechende DSCP-Wert im IP-Header gesetzt. Danach müssen die Router und die Switches im Netz an die QoS-Richtlinien angepasst (konfiguriert) werden, damit die Koppelkomponenten die Weiterleitung der Verkehre entsprechend der jeweiligen Prioritäten umsetzen können. 

Eine QoS-Konfiguration eines Netzwerks ist aufwändig und kann viel Zeit beanspruchen. Bei der QoS-Konfiguration ist bei jeder Koppelkomponente und bei jedem Link die entsprechende Einstufung der Kennzeichnung und der Weiterleitungsvorschriften vorzunehmen. Es sind die entsprechenden Bandbreitenbeschränkungen für die unterschiedlichen Datenverkehre festzulegen, und es muss dafür gesorgt werden, dass noch genügend Bandbreite für die Übermittlung anderer Verkehrsarten übrigbleibt. Es muss jedoch auch dafür gesorgt werden, dass diese QoS-Konfigurationen über die gesamte Laufzeit des Netzwerks erhalten bleiben.

Regelmäßige Vorsorgeuntersuchungen

Ein wichtiger Teil der Arbeit eines Administrators besteht darin, die verschiedenen durch die Netzwerke verbundenen Komponenten auf Performance-Aspekte, die darüber übermittelten Verkehre, die genutzten Protokolle sowie die bereitgestellten Services zu überwachen. Daher sind regelmäßige Vorsorgeuntersuchungen, die alle oben beschriebenen Aspekte abdecken, der Schlüssel zu einer stabilen und langlebigen Kommunikation. Hierzu lässt sich ein Monitoring- und Analysewerkzeug, wie beispielsweise das Allegro Network Multimeter nutzen.

In der Praxis treten Störfälle im Netzwerk nur dann auf, wenn man gerade nicht vor einem Analysator sitzt. Daher ist es hilfreich, wenn man die aufgetretenen Probleme durch eine nachträgliche Analyse des Netzwerkverkehrs unter die Lupe nehmen kann. Hierzu werden im Netz an strategischen Stellen die Informationen zur nachträglichen Netzwerkanalyse aufgezeichnet.

Ist der Administrator beispielsweise auf der Suche nach der Ursache eines Problems auf einem Client, kann das Zeitintervall der Fehlermeldung ausgewählt und die Verbindungen zwischen dem betreffenden Client und dem Server dargestellt werden. Resultat: Im betreffenden Zeitraum ging kein Netzwerkverkehr vom betreffenden Client aus.

Man vermutet natürlich sofort, dass das Problem auf dem Server liegt. Empfängt und sendet der Server überhaupt Pakete? Traten im betreffenden Zeitraum zu viele Sendewiederholungen auf?

Die Analyse der historischen Daten ergibt jedoch, dass über einen längeren Zeitraum keine Daten beim Server vom betroffenen Client empfangen wurden. Da der betreffende Server jedoch mit anderen Clients zum gesuchten Zeitpunkt erfolgreich kommuniziert, scheidet dieser als Fehlerursache aus. Es muss sich um eine fehlerhafte Verbindung zwischen Client und Server handeln.

Im nächsten Schritt wird der Client näher eingekreist. Kann der Client zu anderen Geräten eine Verbindung aufbauen? Wenn ja, dann ist das Problem auf der Strecke zum Server zu suchen. Wenn nein, dann liegt das Problem im Client und die Ursache für die fehlgeschlagene Kommunikation muss dort gesucht werden.

Was nützt die beste Messung ohne die notwendige Dokumentation? Erst durch die automatische Darstellung bestimmter Zeiträume (beispielsweise jede Stunde/jeder Tag) sorgt für eine lückenlose Dokumentation des Netzverhaltens.

Fazit

Im Laufe der Zeit verändern sich in den Netzwerken die Einzelteile und führen zu Fehlern. Aus diesem Grund müssen die Hardware, die Software, die Konfigurationen und die Praktiken einer regelmäßigen Kontrolle unterzogen werden. Oftmals haben die IT-Abteilungen keine tieferen Kenntnisse davon, in welchem Zustand sich die einzelnen Komponenten des Kommunikationssystems befinden. Eine manuelle Überprüfung der Kommunikationsströme ist aufwändig und fehlerbehaftet. Stattdessen sollte man automatisierte Tools, die sämtliche Aspekte der Kommunikationssysteme überprüfen, nutzen und sich einen detaillierten Report erstellen lassen.

log

Druckversion