Bandbreite und Latenz in modernen IP-Netzwerken

03. August 2018

Veröffentlicht in:

Webentwicklung

Bandbreite und Latenz in modernen IP-Netzwerken

Zwei Faktoren mit großem Einfluss auf die Webperformance

Zusammen mit den grundlegenden Funktionen und der System-Zuverlässigkeit bestimmt die Performance eines Netzwerkes dessen Gesamtnutzen. Benutzer in einer immer schneller werdenden vernetzten Welt erwarten dies auch von den IT-Netzwerken, in denen sie agieren. Teilweise betragen Netzwerkverzögerungen nur wenige Millisekunden und haben kaum einen Einfluss auf die Nutzererfahrung. In anderen Fällen können solche kleinen Verzögerungen aber im Netzwerk zu einer für den Benutzer schwerwiegenden Verlangsamung führen.

Auch für Websites gilt: Schnellere Performance sorgt für eine tiefergehende Beteiligung der Nutzer, eine bessere Nutzerbindung und höhere Conversions. Nicht zu verachten ist auch der Vorteil, den Google einer performanteren Website gegenüber einer weniger schnellen Website einräumt. Die Performance ist also auch Ranking-Faktor.

Typische Szenarien, in denen Benutzer besonders empfindlich auf eine geringe Netzwerkgeschwindigkeit reagieren sind:

  • Herstellen einer neuen Verbindung
  • Laden einer Webseite
  • Download von Dateien
  • Streamen von Videoinhalten
  • Online-Spiele

Um zu verstehen, welche Faktoren die Geschwindigkeit in einem Computernetzwerk beeinflussen, muss man die beiden kritischen Komponenten näher betrachten: Latenz und Bandbreite.

Latenz
So wird in der Telekommunikation die Zeit genannt, die ein Datenpaket von seinem Ausgangspunkt bis zum Ziel benötigt.

Bandbreite
Die Bandbreite definiert den maximalen Datendurchsatz eines logischen oder physischen Kommunikationswegs.

Durch Wi-Fi 6 (802.11ax) und 5G sehen wir signifikante Verbesserungen in Bezug auf Geschwindigkeit, Kapazität und Latenz, die die Nutzererfahrung weiter verbessern.

Die unterschiedlichen Latenzen in einem IP-Netzwerk

Der Begriff Latenz umfasst mehrere Arten von Verzögerungen, wie sie in einem IP-Netzwerk typischerweise bei der Übermittlung von Datenpaketen auftreten können. Eine Netzwerkverbindung mit niedriger Latenz erfährt nur kleine Verzögerungszeiten, eine Verbindung mit hoher Latenz dagegen weist lange Verzögerungszeiten auf.

In einem IP-Netzwerk sind für die Weiterleitung der Nachrichten zwischen Client und Server die Router zuständig. Die dort am häufigsten auftretenden Verzögerungen sind:

Laufzeitverzögerung: Zeit, die eine Nachricht benötigt, um vom Absender zum Empfänger zu gelangen. Dies hängt ab von der Geschwindigkeit, mit der sich ein Signal in einem Medium ausbreitet.

Übertragungsverzögerung: Zeit, die alle Bits eines Pakets benötigen, um durch die Verbindung zu gelangen. Dies ist abhängig von der Paket-Größe und der Datenrate der Verbindung.

Verarbeitungsverzögerung: Zeit, die zum Verarbeiten der Paket-Header und zur Suche nach Fehlern auf Bit-Ebene benötigt wird.

Warteschlangenverzögerung: Zeit, die ein Datenpaket auf einem Server oder Router wartet, bis es verarbeitet werden kann.

Obwohl die Wahrnehmung der Netzwerkgeschwindigkeit normalerweise als Bandbreite verstanden wird, ist die Latenz das andere wichtige Schlüsselelement. Auch wenn der durchschnittliche Benutzer mit dem Konzept der Bandbreite vertrauter ist, weil es von den Herstellern von Netzwerkgeräten so beworben wird, spielt die Latenz für die Erfahrung von Endnutzern eine größere Rolle.

Die Verringerung der Latenz ist auch durch die Einführung von Edge Computing und der strategischen Verteilung von Datenzentren näher an den Endnutzern möglich, um die Last-Mile-Latenz zu reduzieren.

Die Summe aller oben aufgelisteten Verzögerungen wird als Gesamtlatenz bezeichnet. Die Ausbreitungszeit wird durch die Entfernung von der Quelle bis zum Ziel und vom Medium bestimmt, durch welches das Signal läuft. Die Ausbreitungsgeschwindigkeit liegt für gewöhnlich in der Nähe der Lichtgeschwindigkeit. Auf der anderen Seite wird die Übertragungsverzögerung durch die verfügbare Datenrate bestimmt, die wiederum nichts mit der Entfernung von Server und Client zu tun hat.

Lichtgeschwindigkeit und Ausbreitungslatenz

Nach Einstein und seiner speziellen Relativitätstheorie ist die Lichtgeschwindigkeit die maximale Geschwindigkeit, mit der Materie, Energie oder Informationen bewegt werden können. Diese Beobachtung legt ebenso eine unumstößliche Grenze für die Laufzeit von Netzwerkpaketen fest.

Im Vakuum beträgt die Lichtgeschwindigkeit 299.792.458 Meter pro Sekunde das entspricht etwa 1.079.252.848,8 km/h. Bewegen sich die Pakete durch ein Medium wie Kupferdraht oder Glasfaserkabel, werden die Signale verlangsamt. Das Verhältnis der Lichtgeschwindigkeit zur Geschwindigkeit in einem Material wird Brechungsindex genannt. Je größer der Brechungsindex ist, desto langsamer ist das Medium.

Optische Fasern, die in den meisten Fällen für Langstreckenübertragungen verwendet werden, haben einen Brechungsindex zwischen 1,4 und 1,6 (je nach Qualität des verwendeten Materials). Bei einem Brechungsindex von 1,5 beträgt die Lichtgeschwindigkeit in der Glasfaser 200.000.000 Meter pro Sekunde, ein erstaunlich guter Wert zur Übertragung von Datenpaketen.

Nachdem die Pakete Kontinente und Ozeane überquert haben, kommt es ausgerechnet auf dem letzten Stück zu einer signifikanten Latenz, die auch Last-Mile-Latenz genannt wird. Um das Signal vom Internet-Dienstleister zum Kunden zu transportieren, sorgen Kupferkabel und Routingknoten für Verzögerungen, die ja nach verwendeter Technik und Routing-Methoden mehrere Millisekunden betragen können.

Latenz von Internetdiensten, Software und Geräten

Obwohl die theoretische Spitzenbandbreite einer Netzwerkverbindung gemäß der verwendeten Technologie festgelegt ist, variiert die tatsächliche Datenmenge, die durch ein Netzwerk fließt (Durchsatz genannt), weil sie im Laufe der Zeit von höheren und niedrigeren Latenzzeiten beeinflusst wird. Sobald ein Paket am Router angekommen ist überprüft dieser den Paketkopf, um die weitere Route zu bestimmen. Dabei werden noch weitere Prüfungen ausgeführt, was ebenfalls Zeit erfordert. Ein großer Teil der Validierungen wird von der Hardware ausgeführt, sodass die Verzögerungen sehr gering aber trotzdem nicht zu vernachlässigen sind.

Je mehr Instanzen ein Paket in einem Netzwerk durchläuft, desto mehr Zeit wird für die Übermittlung benötigt. Eine große Entfernung zwischen Quelle und Ziel verursacht höhere Übertragungs- und Verarbeitungsverzögerungen. Dabei ist die Wahrscheinlichkeit der Verzögerung für jedes Paket größer, je höher die Verkehrslast entlang des Pfades ist.

Übermäßige Latenz erzeugt Engpässe, die wiederum den Durchsatz verringern und die maximale effektive Bandbreite einer Verbindung begrenzen. Der Einfluss der Latenz auf den Netzwerkdurchsatz kann abhängig von der Quelle der Verzögerungen temporär (einige Sekunden) oder dauerhaft (konstant) sein.

Bei einer DSL- oder Kabel-Internetverbindung beispielsweise sind Latenzen von weniger als 100 Millisekunden (ms) typisch, oft sind es sogar weniger als 25 ms. Bei Satelliten-Anschlüssen und Mobilgeräten wiederum sind durchaus Latenzen von 500 ms und mehr möglich. Ein Internetdienst mit einer Übertragungsgeschwindigkeit von 20 Mbit/s kann zum Beispiel deutlich schlechter arbeiten als ein Dienst mit 5 Mbit/s, wenn er mit hoher Latenz läuft.

Die Satelliten-Internetdienste veranschaulichen den Unterschied zwischen Latenz und Bandbreite in Computernetzwerken sehr gut. Satelliten besitzen zugleich eine hohe Bandbreite und eine hohe Latenz. Die meisten Benutzer erkennen eine deutliche Verzögerung von der Zeit der Adresseneingabe bis zum Zeitpunkt, zu dem die Seite geladen wird. Die hohe Latenz ist hauptsächlich auf eine Laufzeitverzögerung zurückzuführen, welche die Nachricht erfährt, wenn sie mit Lichtgeschwindigkeit zur entfernten Satellitenstation und wieder zurück zum Computernetzwerk unterwegs ist. Sobald die Nachricht auf der Erde angekommen ist, wird sie so schnell weitergeleitet, wie es die Bandbreite des transportierenden Mediums zulässt.

Auch ein Fehler oder ein anderes Hardwareproblem kann die Zeit zum Lesen von Datenpaketen verlängern und damit die Latenz erhöhen. Der Grund dafür kann auch in der Netzwerkhardware liegen oder in einer langsamen Festplatte, die zu viel Zeit zum Lesen oder Speichern von Daten benötigt. In einem WLAN kann es durch Spiegel- oder Metallflächen zu Interferenzen kommen, die den Datenverkehr verlangsamen und Latenzen verursachen.

Messung der Netzwerklatenz

Mit der Einführung von 5G erleben mobile Netzwerke eine Revolution, die nicht nur höhere Geschwindigkeiten, sondern auch eine deutlich geringere Latenz verspricht, was besonders für Anwendungen wie Echtzeit-Kommunikation und Online-Spiele von Bedeutung ist. Netzwerk-Tools wie Ping und Tracer oder Traceroute können zur Ermittlung der Latenz verwendet werden. Außerdem kann damit die Umlaufzeit bestimmt werden, also der Zeitraum, den eine Nachricht von der Quelle bis zum Ziel und wieder zurückbenötigt. Die Ermittlung dieser Round-Trip-Zeit ist nicht die einzige Möglichkeit die Latenz zu messen, sie wird aber am häufigsten angewandt. Quality of Service (QoS) Funktionen in Computernetzwerken dienen dazu Bandbreite und Latenz gemeinsam zu verwalten und konsistente Leistung zu erzielen. Neuere Entwicklungen in der Software-Defined Networking (SDN) und Network Function Virtualization (NFV) bieten verbesserte Möglichkeiten für Quality of Service (QoS), um Bandbreite und Latenz effektiver zu verwalten.

Die Rolle der Bandbreite in der Netzwerkleistung

Neben der Latenz ist die Bandbreite ein wichtiger Schlüsselfaktor bei der Bestimmung der Geschwindigkeit eines Computernetzwerks. Praktisch jeder Anwender kennt die Bandbreitenangaben seines Internet-Routers und Internet-Dienstleisters, weil sie in den Produktanzeigen prominent vertreten sind.

Die Bandbreite in Computernetzwerken bezieht sich auf die Datenrate, die von der Netzwerkverbindung und -schnittstelle unterstützt wird. Der Wert repräsentiert die Gesamtkapazität einer Netzwerkverbindung. Je größer die Kapazität, desto wahrscheinlicher ist zumindest eine hohe Leistung.

Die Bandbreite bezieht sich sowohl auf theoretische Kapazität als auch auf den tatsächlichen Durchsatz. Dabei ist es wichtig, zwischen den beiden Eigenschaften zu unterscheiden. Zum Beispiel bietet eine Verbindung nach dem 802.11g-Standard eine Nennbandbreite von 54 Mbit/s erreicht aber in der Praxis jedoch nur 50 % oder weniger dieses Wertes beim tatsächlichen Durchsatz. Herkömmliche Ethernet-Netzwerke unterstützen theoretisch 100 Mbit/s oder 1.000 Mbit/s maximaler Bandbreite. Aber diese maximalen Werte werden normalerweise ebenfalls nicht erreicht.

Mobile Netzwerke haben im Allgemeinen keine spezifische Bandbreitenangabe aber auch hier gilt das gleiche Prinzip. Verzögerungen in der Computerhardware, bei den Netzwerkprotokollen und in den Betriebssystemen sorgen für den Unterschied zwischen der theoretischen Bandbreite und dem tatsächlichen Durchsatz.

Bandbreite in Glasfasernetzwerken

Eine optische Faser, etwas dünner als das menschliche Haar, ist dazu ausgelegt, Licht zwischen den beiden Enden des Kabels zu übertragen. Auch Metalldrähte werden dazu verwendet, sie unterliegen jedoch größeren Signalverlusten, elektromagnetischen Störungen und höheren Wartungskosten. Aus diesem Grund werden für alle Fernverbindungen Glasfaserkabel verwendet.

Optische Fasern haben zudem einen eindeutigen Vorteil, wenn es um die Bandbreite geht. Jede Faser kann auf unterschiedlichen Wellenlängen (Kanälen) Licht von einer Quelle zum Ziel transportieren. Daher ist die Gesamtbandbreite einer Glasfaserverbindung das Vielfache der Datenrate pro Kanal und die Anzahl der Kanäle. Bisher werden durch eine Faser gleichzeitig etwa 160 Kanäle genutzt, wobei jeder Kanal eine andere Wellenlänge im Infrarotbereich verwendet.

Moderne Glasfaserkabel haben eine Kapazität von 100 Gbit/s, damit ist die Grenze der Kapazität aber noch nicht erreicht. Verschiedene Störeffekte verhindern derzeit höhere Bandbreiten. Eine Begrenzung ist das Rauschen der Signalverstärker, die etwa alle 100 km erforderlich sind. Zur Erreichung des theoretischen Maximums müssten vor allem das Codierungsverfahren und die Modulation noch verbessert werden. Das absolute Limit liegt bei 150 Tbit/s. Durch die kontinuierliche Verbesserung von Faser-Materialien und optischen Technologien nähern wir uns einer noch effizienteren Nutzung der Bandbreite, die die Grenzen der aktuellen Kapazitäten erweitert.

Bandbreite in Draht-gebundenen Netzwerken

Auf den großen Draht-gebundenen Netzwerken des Internets kommen Glasfaserkabel zum Einsatz die bis zu den Backbones Hunderte von Terabits übertragen können. Allerdings ist die verfügbare Kapazität in den Draht-gebundenen Netzwerken deutlich geringer und stark von der verwendeten Technologie abhängig. Einwahl-, DSL-, Kabel- und eine Vielzahl von mobilen Technologien und die Leistung des lokalen Routers haben einen großen Einfluss auf die verfügbare Bandbreite. Die Bandbreite bei mobilen Geräten ist sehr variabel, in der Regel jedoch langsamer als bei Glasfaserkabeln.

Eine hohe Bandbreite zum Internet-Dienstleister ist zwar wünschenswert, jedoch keine Garantie für eine gute Ende-zu-Ende-Leistung. Auch wenn die verfügbare Bandbreite hohe Datenraten verspricht, trifft dies meist nicht auf die entfernten Servern zu. Das Netzwerk könnte aufgrund hoher Nachfrage, Hardwarefehlern, eines konzentrierten Netzwerkangriffs oder wegen einer Vielzahl anderer Gründe potenziell an jedem Zwischenknoten überlastet sein. Eine hohe Variabilität des Durchsatzes und der Latenzleistung ist eine inhärente Eigenschaft unserer Datennetzwerke. Die Vorhersage, Verwaltung und Anpassung an den sich ständig ändernden Netzwerkverkehr bleibt eine komplexe Aufgabe.

Die Geschwindigkeit eines Computernetzwerks überprüfen

Ein hochauflösendes Video erfordert beim Streaming zwischen 2 und 10 Mbit/s. Für einen Endnutzer ist das ausreichend, es verbraucht jedoch viel von seiner Verbindungskapazität. Bereits bei zwei gleichzeitigen Benutzern kann es zu Engpässen kommen. Herauszufinden, an welcher Komponente sich der Bandbreitenengpass befindet, ist oft eine wichtige Angelegenheit. Zum Glück gibt es im Internet zahlreiche Dienste, mit deren Hilfe Upstream- und Downstream-Tests durchgeführt werden können. Diese bieten eine gute Möglichkeit, zu überprüfen, ob die angegebenen Geschwindigkeiten des Internet-Anbieters erreicht werden.

Die Methoden zur Überprüfung der Netzwerkgeschwindigkeit sind bei lokalen Netzwerken (LANs) und Wide Area Networks (WAN) wie dem Internet unterschiedlich. Ein Test misst die Leistung eines Netzwerkes während eines kurzen Zeitraums. Die Testprogramme senden und empfangen Daten über das Netzwerk und berechnen die Leistung anhand der übertragenen Daten in einem bestimmten Zeitintervall.

Die am meisten verwandte Messung für die Netzwerkgeschwindigkeit ist die Datenrate. Diese wird ermittelt als Anzahl der Bits, die in einer Sekunde über eine Netzwerkverbindung laufen. Moderne Computernetzwerke unterstützen Datenraten von bis zu 1 Milliarde Bits pro Sekunde. Die Geschwindigkeitstests enthalten häufig auch eine separate Messung der Netzwerkverzögerung, die häufig auch als Ping-Zeit bezeichnet wird.

Die Bewertung der Qualität der Netzwerkgeschwindigkeit hängt darüber hinaus von der Verwendung des Netzwerkes ab. So erfordert zum Beispiel das Spielen über ein Netzwerk relativ niedrige Ping-Zeiten, die Datenrate ist oft zweitrangig. Die Übertragung eines HD-Videos erfordert dagegen hohe Datenraten, die Netzwerkverzögerung ist hier aber weniger problematisch. Gleichzeitig bietet die allmähliche Einführung von IPv6 nicht nur eine nahezu unbegrenzte Anzahl von IP-Adressen, sondern auch eine effizientere Paketverarbeitung, die zu geringeren Latenzzeiten beitragen kann.

Höhere Bandbreite und niedrige Latenzen

Das die Nachfrage nach einer höheren Bandbreite ständig wächst, ist vor allem dem Video-Streaming geschuldet, das mittlerweile für die Hälfte des Internet Traffics verantwortlich ist. Durch die Integration von mehr Fasern in einer Glasfaserverbindung erhöhen die Dienstleister die Kapazität für die überlasteten Strecken. Außerdem führt die Optimierung der "Wavelength Division Multiplexing" (WDM) Technik zu einer besseren Ausnutzung der Lichtwellenleiter. Leider ist die Verlegung neuer Kabel aus Kostengründen und politischen Hürden insbesondere bei uns in Deutschland vielerorts ein Problem.

Eine niedrigere Latenz kann durch die Verbesserung der optischen Lichtwellenleiter erreicht werden. Leider gibt es keine Möglichkeit, die Gesetze der Physik zu umgehen. Aber bessere Faser-Materialien mit einem niedrigeren Brechungsindex und schnellere Router könnten helfen, sich der Lichtgeschwindigkeit anzunähern.

Können wir weiterhelfen?

Sie haben ein spannendes Projekt und möchten mit uns zusammenarbeiten? Kontaktieren Sie uns jetzt!

Kostenloses Erstgespräch

Bildnachweis/e: images by pexels.com and iconfinder.com