Zum Inhalt springen
Zurück zum Blog
Veröffentlicht am 1. März 20266 Min. Lesezeit

Understanding Network Latency: Causes and Solutions

Explore what causes network latency, how to measure it accurately, and practical strategies to reduce it for better application performance.

latencynetwork-performanceoptimizationdiagnostics

Netzwerklatenz — die Zeit, die Daten benötigen, um von einem Punkt zum anderen zu reisen — ist einer der wichtigsten Faktoren für die Anwendungsleistung, die Benutzererfahrung und die Echtzeitkommunikation. Zu verstehen, was Latenz verursacht und wie man sie misst, ist der erste Schritt zur Reduzierung.

Was ist Netzwerklatenz?

Latenz wird als Round-Trip Time (RTT) gemessen, also die Zeit, die ein Paket benötigt, um vom Quell- zum Zielort zu reisen und wieder zurück. Sie wird typischerweise in Millisekunden (ms) angegeben. Eine Latenz von 20 ms bedeutet, dass Ihre Daten 20 Millisekunden für die vollständige Runde benötigen. Zur Orientierung:

  • 1–10ms — Ausgezeichnet. Typisch für lokale Netzwerke oder Verbindungen innerhalb desselben Rechenzentrums
  • 10–50ms — Gut. Häufig bei regionalen Verbindungen innerhalb eines Kontinents
  • 50–150ms — Akzeptabel. Typisch für interkontinentale Verbindungen
  • 150ms+ — Deutlich. Benutzer nehmen Verzögerungen in interaktiven Anwendungen wahr

Häufige Ursachen für Latenz

1. Physische Entfernung

Licht reist durch Glasfaserkabel mit etwa 200.000 km/s (et ungefähr zwei Drittel der Lichtgeschwindigkeit im Vakuum). Ein Paket, das von New York nach Tokio reist, legt etwa 11.000 km Kabel zurück, was zu einer minimalen physischen Latenz von rund 55 ms in eine Richtung führt. Dies ist eine absolute Untergrenze, die keine Technologie eliminieren kann.

2. Netzwerk-Hops und Routing

Jeder Router, den ein Paket passiert, fügt Verarbeitungszeit hinzu. Jeder Hop verursacht typischerweise 0,5–5 ms Latenz, abhängig von der Auslastung und Konfiguration des Routers. Ein traceroute mit 15 Hops und einem Durchschnitt von 2 ms pro Hop addiert 30 ms Routing-Overhead zur physikalischen Ausbreitungsverzögerung.

3. Überlastung

Wenn eine Netzwerkverbindung mehr Datenverkehr trägt, als ihre Kapazität zulässt, warten Pakete in den Puffern der Router. Diese Queuing-Verzögerung kann der größte Einzelbeitrag zur Latenz sein, insbesondere während der Stoßzeiten. Sie ist auch die variabelste Komponente, was die jitter (Latenzschwankungen) verursacht, die die Echtzeit-Anwendungen beeinträchtigen.

4. Protokoll-Overhead

TCP-Verbindungen benötigen einen Drei-Wege-Handshake, bevor Daten übertragen werden, was eine vollständige RTT-Verzögerung vor dem Senden von Nutzdaten bedeutet. TLS-Verschlüsselung fügt weitere 1–2 RTTs für den Handshake hinzu. DNS-Auflösung verursacht eine weitere Round-Trip, wenn die Domain nicht im Cache ist. Diese Overheads summieren sich bei jeder neuen Verbindung.

5. Last-Mile-Probleme

Die Verbindung zwischen einem Endbenutzer und dem ersten Router seines ISP ist oft die schwächste Stelle. Wi-Fi fügt 1–5 ms hinzu, verglichen mit Ethernet. Ältere DSL- und Kabeltechnologien fügen deutlich mehr hinzu. Satellitenverbindungen benötigen aufgrund der Entfernung zum geostationären Orbit 300–600 ms.

Wie man Latenz misst

Ein einfacher Ping gibt Ihnen die baseline RTT. traceroute zeigt die Latenz bei jedem Hop und offenbart, wo Verzögerungen auftreten. MTR kombiniert beides mit kontinuierlicher Überwachung. Für eine umfassendere Ansicht visualisieren Tools wie TraceMapper die Latenzdaten auf einer Karte, was sofort sichtbar macht, wo auf der Welt Ihre Pakete verzögert werden.

Beim Messen sollten immer mehrere Proben zu unterschiedlichen Zeiten genommen werden. Die Latenz variiert mit der Netzwerkauslastung, und eine einzelne Messung kann irreführend sein.

Strategien zur Reduzierung der Latenz

  • Verwenden Sie ein CDN — Content Delivery Networks platzieren Ihre Inhalte näher bei den Nutzern, reduzieren die physische Entfernung
  • Wählen Sie strategische Serverstandorte — Platzieren Sie Server in der Nähe Ihrer Nutzerbasis
  • Aktivieren Sie Verbindung-Wiederverwendung — HTTP/2 und HTTP/3 multiplexen Anfragen über eine einzelne Verbindung, um wiederholte Handshakes zu vermeiden
  • Optimieren Sie DNS — Verwenden Sie schnelle DNS-Resolver und aktivieren Sie DNS-Caching
  • Reduzieren Sie die Payload-Größe — Kleinere Pakete durchqueren das Netzwerk schneller und verbringen weniger Zeit in Buffern
  • Überwachen Sie kontinuierlich — Verwenden Sie traceroute-basierte Überwachung, um Routing-Änderungen und Überlastungsmuster zu erkennen, bevor Benutzer sich beschweren

Netzwerklatenz ist eine grundlegende physikalische Beschränkung, aber das Verständnis ihrer Komponenten ermöglicht es Ihnen, das zu minimieren, was Sie kontrollieren können, und realistische Erwartungen für das, was Sie nicht kontrollieren können, zu setzen.