2018-03-16 10:44:10

Alles wird gut: Troubleshooting im UC-System

Die Fehlerbehebung eines UC-Systems kann zu einer heiklen Angelegenheit werden. Mit den richtigen Werkzeugen und Schulungen hat jedes Unternehmen die Mittel, das Troubleshooting richtig zu machen.

Jede Technologie wird von Zeit zu Zeit versagen. Die UC-Systeme bilden keine Ausnahme. Daher ist die Fehlerbehebung - die Fähigkeit, Probleme schnell zu erkennen und zu beheben - entscheidend für einen erfolgreichen UC-Betrieb und für eine bessere Zusammenarbeit mit Kollegen, Kunden und Partnern.

Aber die Fehlersuche gehörte über eine lange Zeit zu den Problembereichen in den Unternehmen, die UC-Systeme einsetzten. Warum? Weil viele Unternehmen nicht nur eine einzige UC-Plattform nutzen. Meist bestehen die Lösungen auf unterschiedlichen Plattformen von einer beliebigen Anzahl von UC-Anbietern. Beispielsweise stammen die Headsets, die mit dem Microsoft Skype for Business-System genutzt werden, von Jabra oder Plantronics. Trat ein Problem auf, bedeutet dies eine zusätzliche Komplexität und größere Schwierigkeiten, wenn man die genaue Ursache des Problems ermitteln wollte.

Ein weiterer Faktor, der die Fehlersuche erschwert, ist der Mangel an geeigneten Tools und Technologien. Ohne solche Werkzeuge wird die Fehlerbehebung zu einem zeitaufwändigen Prozess. Man kann natürlich auch mühevoll die Ursache des Problems herausfinden, indem viele Traces und Befehlszeilen durchforstet werden. Zielführend und vor allem schnell ist eine solche Fehlersuche nicht.

Aus diesem Grund kann UC für viele Nutzer zum Albtraum werden. Sie können sich nicht in eine wichtige Konferenz einwählen. Wenn dann die Verbindung klappt, dann klingen die Teilnehmer der Konferenz, wie wenn diese unter Wasser leben würden. Sie bekommen die Hälfte des Anrufs nicht richtig mit und die Teilnehmer fliegen auf mysteriöse Weise aus der Konferenz heraus. Sie versuchen, ein Dokument zu teilen, aber die App-Sharing-Funktion funktioniert plötzlich nicht mehr. Schließlich bricht das Video zusammen und der Bildschirm bleibt leer. Daraufhin sind die Benutzer so frustriert, dass sie die UC-Anwendung komplett meiden. Damit geht das gesamte in UC investiert Geld verloren und die versprochenen Produktivitätsvorteile werden nie realisiert.

Treten Probleme auf benötigen die Unternehmen die richtigen Werkzeuge und Technologien, um schnell herauszufinden, was falsch läuft und wie die Probleme zu beheben sind. Die folgenden sechs Tipps tragen zur schnellen Fehlerbehebung bei:

  • Nutzen Sie Werkzeuge, die Ihnen aktiv die richtigen Warnmeldungen bereitstellen. Man sollte entsprechende Warnungen erhalten, bevor ein Problem auftritt. Dadurch gewinnen Sie den notwendigen zeitlichen Vorsprung, um das Problem lösen zu können, bevor diese die Nutzer verspüren. Das richtige Werkzeug liefert kristallklare Informationen über mögliche Problembereiche und sorgt dafür, dass der Administrator Werkzeug, das Problem schnell lösen kann.
  • Die Daten zur Sprachqualität haben auf einer Ende-zu-Ende-Basis die größte Aussagekraft. Viele UC-Anbieter stellen die Informationen zur Sprachqualität nur in Bezug auf ihre eigenen Systeme das. Da in den meisten UC-Umgebungen jedoch mehr als ein Hersteller verbaut wurde, benötigen Sie eine Ende-zu-Ende-Darstellung der Sprachqualität über alle Produkte hinweg. Dadurch können Sie genau feststellen, wo ein Problem liegt, und sie sind in der Lage, das Problem schneller zu lösen. Verschlechtert sich beispielsweise die Sprachqualität, kann man anhand der Ende-zu-Ende-Informationen feststellen, dass die Ursache des Problems nicht in der UC-Anwendung liegt, sondern auf einem Netzwerkproblem beruht.
  • Visualisieren Sie das Problem. Viele UC-Hersteller stellen in ihren Produkten entsprechende Sprachqualitäten per Netzwerk-Hop dar. In der Praxis hat sich für die Fehlersuche und -Analyse ein Werkzeug zur Visualisierung der Kommunikationspfade als hilfreich erwiesen. Anhand der graphischen Darstellung können Engpässe und Latenzen zwischen den einzelnen Hops aufgezeigt werden. Taucht man in die dargestellten Daten tiefer ein, kann man für jeden Aufruf die Ursache für die Parameterabweichungen verstehen. Möglicherweise liegen die Probleme nicht auf der UC-Seite, sondern auf der Netzwerkseite.
  • Bewerten und testen Sie Ihre gesamte Umgebung. Soll ein neues UC-System realisiert werden, müssen Sie sicherstellen, dass das vorhandene Netzwerk die von der neuen Anwendung generierten Datenströme auch transportieren kann. Vor der Planung der neuen UC-Systeme müssen Belastungstests und Stresstests durchgeführt werden. Nur so können Sie sicherstellen, dass die vorhandenen Netzstrukturen die zusätzlichen Netzwerkverkehre verkraften und das neue UC-System ordnungsgemäß funktioniert. Mit eine Pre-Deployment-Messung ist jedoch das Messen bzw. die Datensammlung nicht beendet. Netzwerke sind lebendige Wesen, die sich ständig verändern und im Wandel begriffen sind.
  • Sparen Sie nicht beim Training. Gute Werkzeuge zur Fehlerbehebung ersetzen jedoch nicht die umfassende Schulung der Administratoren und der Nutzer auf das neue UC-System. Auch erfordern Benutzer der Administrations- und Fehleranalysewerkzeuge in der Regel umfassende Schulungen.

Die beschriebenen Werkzeuge sammeln zur Analyse und zur Überwachung der UC-Anwendungen im Netzwerk gezielt die Echtzeitinformationen und werten diese kontinuierlich aus. Viele UC-Monitoring-Werkzeuge stellt folgende Module bereit:

VoIP-Monitoring

Für den VoIP-Betrieb  ist eine kontinuierliche Auswertung des VoIP-Verkehrs unabdingbar. Daher überwacht ein VoIP Monitoring - sowohl die Signalisierung als auch die Media-Ströme. Zu den vom Monitoring überwachten Parametern gehören:

  • Die aufgetretenen Paketverluste
  • Die Verzögerungen
  • Der Jitter (Verzögerungsschwankungen)
  • Die aus den VoIP Streams ermittelten MOS-Werte nach dem E-Modell.

Die Überwachung des VoIP-Verkehrs erfolgt an einem zentralen Netzknoten. Dabei werden die am betreffenden Netzknoten auftretenden Datenströme an das Monitoring System gespiegelt und von diesem analysiert und dokumentiert. Der Vorteil dieser passiven Analyse besteht darin, dass keine zusätzlichen Lasten im Netzwerk erzeugt werden. Die erfassten Daten werden anhand der von den Nutzern erzeugten VoIP-Strömen ermittelt, bewertet und in Detailreports ausgegeben. Das Monitoring bietet dem Betreiber eine dauerhafte Überwachung des Netzwerks, welches eine Übersicht der vorhandenen VoIP-Qualitäten zu jeder Tages- und Nachtzeit darstellt. Dadurch lassen sich die für das Netzwerk und die Multimedia-Anwendungen festgelegten Sevice Level Agreements (SLAs) überwachen.

Video

Nach der flächendeckenden Realisierung von Voice over IP (VoIP) folgt jetzt die zweite Welle der IP-Integration in die Unternehmensnetze. Bei den neuen in das Netzwerk integrierten Anwendungen handelt es sich um Video (Videoüberwachung und Videoconferencing), TV- bzw. IPTV-Signale. Das Problem besteht darin, dass diese neuen Anwendungen zusätzliche extrem hohe Anforderungen an das Netzwerk stellen. Video und TV im Netzwerk die Bereitstellung garantierter hoher Bandbreiten. Bei interaktivem Video verschärft sich diese Anforderung noch zusätzlich, denn es werden durchgehende Qualitätsmerkmale auf einer Ende-zu-Ende-Basis (von Endgerät zu Endgerät) benötigen.

Videoüberwachung

Die Videoüberwachung dient der Beobachtung von Orten durch optisch-elektronische Einrichtungen bzw. optischen Videoüberwachungsanlagen. Häufig steht diese Form der Überwachung in Verbindung mit der Aufzeichnung und Analyse der gewonnenen audiovisuellen Daten. Bei der Videoüberwachung wird in der Regel das von der Kamera aufgenommene Signal an einen zentralen Videoserver per Unicast-Mechanismus übertragen und dort weiterverarbeitet.

Videoconferencing

Als Videokonferenz wird der synchrone Informationsaustausch zwischen Menschen an mehr als einem Ort in einer Konferenz bezeichnet, welche mit Hilfe von technischen Einrichtungen zur Bild- und Tonübertragung realisiert wird. Die unterschiedlichen Bilder und Töne an den Orten werden durch die Teilnehmer beeinflussbar für die jeweiligen Endgeräte aufbereitet.
Im Gegensatz dazu bezeichnet man als Telepresence eine virtuelle Form der Videokonferenz. Hier wird durch eine aufwändige Anordnung der Technik die Illusion einer Face-to-Face Kommunikation erzeugt. Es scheint fast so, als wenn man mit seinem Gegenüber wirklich in einem Raum ist. Besonders durch die Verbesserung der Videokonferenztechnik durch High-Definition Systeme mit besonders hohen Auflösungen werden solche Systeme heute vermehrt eingesetzt. Beim Videoconferencing/Telepresence wird auf Basis von Unicast-Sessions zwischen den beteiligten Nutzern ein individueller Datenstrom übertragen

IPTV

Mit Internet Protocol Television (IPTV) bezeichnet man den Übertragungsweg über IP-Ressourcen zur Übermittlung von Fernsehprogrammen und Filme. IPTV ist weder ein Standard noch ein Konzept und damit nur ein Gattungsbegriff, der in sehr vielen unterschiedlichen Ausprägungen anzutreffen ist. Die unterschiedlichen Ausprägungen reichen vom einfachen IPTV über Computer oder Handy bis hin zu speziellen Endgeräten, bei denen der Benutzer gar nicht bemerkt, dass er das Internet dazu nutzt, weil er seine TV-Inhalte über eine Set-Top-Box erhält.

Als wichtige Merkmale von IPTV werden die Unterstützung des Next Generation Network, bidirektionale Netze, Echtzeit- und Nicht-Echtzeit Dienste angegeben. Der DVB-Standard für IPTV wird als DVB-IPTV bezeichnet.
Bei der Datenübertragung vom Streamingserver des Senders zum IPTV-Empfangssystem werden zwei Verfahren genutzt:

  • Unicast: Beim Unicast steht jedem Zuschauer ein individueller Datenstrom zur Verfügung. Dadurch kann der Zuschauer den Startpunkt einer Sendung oder eines Videobeitrages individuell bestimmen (Video on Demand).
  • Multicast: Beim Multicast-Verfahren erhalten gleichzeitig alle Empfänger dieselben Daten vom Sender. Dadurch ist zunächst nur lineares Broadcast-TV möglich (linear, da die Reihenfolge der Sendungen nicht vom Benutzer beeinflussbar ist). Gegenüber Unicast hat Multicast den Vorteil, dass die Netzlast für den Sender weniger mit der Anzahl der Teilnehmer steigt.

Die notwendige Datenrate zur Übertragung von Videodaten hängt von der verwendeten Kodierung ab. Die Videokompression dient der Reduzierung der Datenrate eines digitalisierten Videosignals, um es einfacher speichern oder übertragen zu können. Die Standardisierung von Videokodierungsverfahren ist mittlerweile ein internationale Organisationen überspannender Prozess, an der die Moving Picture Experts Group (MPEG) wie die ITU beteiligt sind. Daher haben viele identische Verfahren verschiedenen Bezeichnungen wie beispielsweise ITU H.264, MPEG-4 Version 3 oder MPEG-4 AVC, hinter denen sich der gleiche Codec verbirgt.

Der H.264 Codec wird heute in der Viodeo/IPTV over IP Welt hauptsächlich genutzt. Diese hocheffiziente Videokompression erreicht typischerweise eine etwa dreimal so hohe Codier-Effizienz wie H.262 (MPEG-2) und ist auch für hoch aufgelöste Bilddaten ausgelegt. H.264 wurde nicht auf einen spezifischen Verwendungszweck zugeschnitten, sondern kann für ein breites Spektrum an Anwendungen genutzt werden:

  • HDTV: H.264 ist das verpflichtende Videokompressionsverfahren für die hochauflösende Fernsehübertragung.
  • Videokonferenztechnik: Seit 2005 stehen Anwendern Videokonferenzendsysteme mit H.264-Codecs zur Verfügung.
  • Videokameras: Eine Reihe von Digitalkameras und Videokameras unterstützen H.264-Kompression für Videoaufzeichnung.
  • Portable Video: Die Mobilfernsehstandards verwenden H.264 für die Videokodierung für mobile Endgeräte.

Bei der Videoübertragung erfolgt die Datenreduktion in mehreren Stufen und berücksichtigt dabei, dass die aufeinanderfolgenden Phasenbilder (Frames) eines Films ähnliche Inhalte haben. Es handelt sich um Einzelbilder, die über die Differenz zu vorhergehenden Einzelbildern beschrieben werden.

Beim passiven Monitoring werden keine zusätzlichen Pakete in das Netz gesendet, sondern der übermittelte VoIP/Video-Verkehr wird an bestimmten Knotenpunkten lediglich „mitgehört“. Dabei werden die am betreffenden Netzknoten auftretenden Datenströme an das Monitoring-System gespiegelt und von diesem analysiert und dokumentiert. Der Vorteil der passiven Überwachung besteht darin, dass keine zusätzlichen Lasten im Netzwerk erzeugt werden. Die Analysedaten werden aus den von den Nutzern erzeugten VoIP/Video-Strömen ermittelt, bewertet und in detaillierten Reports ausgegeben. Für die Bewertung der empfangenen VoIP-Ströme wird vom Monitoring-System das E-Modell (ITU-T Rec. G.107) genutzt. Dieses Messverfahren bewertet einen RTP-Stream anhand der darin enthaltenen Paketparameter. Dabei zeichnet das VoIP-Messgerät die von dem Telefon oder der Telefonanlage übermittelten RTP-Streams auf. Anschließend werden die Eigenschaften der aufgezeichneten RTP-Streams bewertet. Zu den, in die Beurteilung einfließenden Paketparameter gehören: die Paketverluste, der Jitter und die Codierung. Diese drei Parameter werden anschließend dem E-Modell Algorithmus zur Verfügung gestellt. Dieser berechnet daraufhin den MOS-Wert des jeweiligen RTP-Stromes.

Das passive Monitoring bietet somit dem Betreiber eine dauerhafte Überwachung des Netzwerks, welches eine Übersicht der vorhandenen VoIP/Video-Qualitäten zu jeder Tages- und Nachtzeit darstellt

mat

Druckversion