Accueil Entreprise Mesurez la latence de votre réseau avant que cela ne devienne un problème

Mesurez la latence de votre réseau avant que cela ne devienne un problème

Table des matières:

Vidéo: OPTI WINDOWS #9 : FIN DE LA LATENCE GPU ET DIRECTX ! (Novembre 2024)

Vidéo: OPTI WINDOWS #9 : FIN DE LA LATENCE GPU ET DIRECTX ! (Novembre 2024)
Anonim

La vitesse d'un réseau est généralement définie comme un débit: combien de mégabits ou de gigabits votre réseau peut-il pomper dans ses tuyaux en une seconde? C'est certainement important, mais il y a un autre facteur à prendre en compte, et de nos jours, c'est souvent au moins aussi important (et parfois plus important) que la vitesse brute. Ce facteur est la latence. Le meilleur moyen de définir la latence consiste à utiliser un délai: intervalle de temps entre l'envoi d'un paquet ou d'un groupe de paquets d'une source à une destination, généralement mesuré en millisecondes (ms). Pour les utilisateurs, même de grandes différences de temps de latence ne sont pas souvent perceptibles lors de l'utilisation de leurs applications quotidiennes. Autrement dit, à moins qu'ils n'utilisent des applications sensibles à la latence. La liste des applications sensibles au temps de latence a augmenté récemment, ce qui explique pourquoi la latence est si importante. La plupart des applications peuvent s'adapter à une latence plus lente, mais certaines, notamment celles qui reposent sur le streaming vidéo ou un autre type de flux de données constant, peuvent être gênées si une performance de latence minimale n'est pas atteinte.

Le service en nuage est un facteur clé qui modifie le paysage de la latence. Les services cloud, qu'ils fonctionnent dans des centres de données privés ou publics, tels qu'Amazon Web Services (AWS) ou Google Cloud, sont nécessairement situés à distance de votre centre de données. Normalement, le chemin d'accès à ces services en nuage passe par l'internet public. Pour la majorité du trafic réseau, une connexion Internet convient. Mais pour les applications sensibles au temps de latence, Internet est une nature imprévisible qui peut être calme une milliseconde et orageuse la suivante. En effet, le chemin de données est soumis aux aléas de l'acheminement et des délais de traitement. Ce sont des facteurs que ni votre personnel informatique ni les professionnels de l'informatique du service de cloud computing ne peuvent contrôler.

Qu'est-ce que la latence?

Il existe deux types de latence qui affectent les services cloud. L'une est le temps nécessaire pour que les données traversent le réseau d'un point à un autre. Ceci est limité par la "vitesse du fil" de la connexion, c'est-à-dire soit la vitesse de la lumière traversant un câble à fibres optiques en verre, soit la vitesse du signal des données circulant sur un câble en cuivre Cat X. Dans tous les cas, cela est directement lié à la distance parcourue. Plus important encore, vous ne pouvez rien faire contre les retards causés par le temps nécessaire à la transmission, si ce n'est de vous rapprocher du fournisseur de cloud ou de choisir l'emplacement du serveur le plus proche pour le service de cloud que vous utilisez, mais pas tous. vous donner cette option.

Le second type de latence est créé par des retards de traitement ou parfois par un mauvais routage. Chaque fois que votre paquet de données traverse un périphérique, il y a un bref délai pendant lequel le routeur ou le commutateur décide du prochain envoi. L'inspection des paquets dans les pare-feu ou d'autres dispositifs de sécurité entraîne des retards supplémentaires, ainsi que par les serveurs lorsqu'ils reçoivent une demande de données, le trouvent dans leur mémoire de masse, réagissent à la demande et envoient une réponse. Bien que chacun de ces retards puisse être bref, ils s’additionnent. Parfois, si votre chemin entre votre centre de données et vos données dans le cloud est encombré, les retards, et donc la latence, peuvent vraiment s’additionner.

Mesurer la latence avec Traceroute

Heureusement, mesurer le temps de latence de vos données est assez simple et ne coûte rien. Pour le savoir, exécutez la ligne de commande dans le système d'exploitation de votre choix et exécutez une commande Traceroute. Dans Microsoft Windows, vous tapez la commande "tracert" à l'invite de commande, suivie du nom de la destination, peut-être "aws.amazon.com" ou "cloud.google.com". (Voir la capture d'écran ci-dessous.)

Dans Apple OS X ou Linux, accédez à la fenêtre du terminal et tapez: traceroute -I companydomain.com. Alternativement, vous pouvez remplacer le nom de domaine par une adresse IP réelle. Vous souhaitez que le commutateur -I soit utilisé de manière à ce que traceroute utilise le protocole ICMP (Internet Control Message Protocol), dont il aura besoin pour mesurer avec précision la latence.

Quel que soit le système d'exploitation, ce que vous voyez à l'écran correspond aux réponses de chaque routeur le long du chemin d'accès au site Web que vous consultez, ainsi qu'à une mesure du temps en ms. Additionnez-les et c'est votre latence. Si vous exécutez la commande plusieurs fois, vous remarquerez que les mêmes routeurs ne s'affichent pas toujours. En effet, vos paquets de données peuvent emprunter différentes voies Internet chaque fois que vous exécutez la commande. Certains chemins peuvent être plus longs que d'autres, ce qui augmente votre temps de latence général. Bienvenue sur latence sur internet.

Cliquez sur la capture d'écran pour agrandir.

Mesurer la latence avec des outils de gestion de réseau

Les informaticiens en charge d’un réseau d’entreprise disposeront d’une sorte d’outil de surveillance du réseau leur permettant de suivre de près ce qui se passe entre eux et l’évolution du trafic. Vous pouvez également vérifier la latence du réseau de différentes manières. S'il s'agit d'un outil bien conçu, il disposera de ses propres fonctionnalités de mesure de la latence. Par exemple, Spiceworks dispose de son propre logiciel Traceroute qui utilise le protocole TCP (Transmission Control Protocol) au lieu du protocole ICMP utilisé dans la fonction de traceroute standard décrite précédemment. Cela est également utilisé dans la commande Ping. Dans certains cas, TCP peut être plus précis car certains routeurs sont configurés pour ne pas répondre aux paquets ICMP.

Paessler AG, qui vend le moniteur de réseau PRTG de Paessler, est un autre bon exemple. Cet outil fournira la latence du réseau avec ses autres fonctions. Paessler AG dispose d'une version gratuite de son logiciel ainsi que d'un essai gratuit. J'examinerai le moniteur de réseau PRTG, y compris ses capacités de latence, au moment de tester l'outil en vue d'une prochaine révision PCMag.

"Au-delà des temps de ping, si je mesure chaque période, c'est la mesure de base de la latence", a expliqué Greg Ross, ingénieur système principal chez Paessler AG. "Vous pouvez diviser le chemin et évaluer chaque saut du chemin. Nous pouvons le faire avec un nombre de sauts de route de trace.

«L’autre aspect est la surveillance de la qualité de service, qui examine la gigue et le temps aller-retour entre moi et le point de terminaison», a déclaré Ross. Il a ajouté qu'une telle surveillance peut également indiquer d'autres causes de latence, telles que des paquets en retard ou des paquets reçus dans le désordre.

Réduire l'impact de la latence

Si vos applications rencontrent des problèmes avec des temps de latence élevés, vous pouvez alors prendre certaines mesures pour atténuer l'impact de la latence, même si vous ne pouvez pas l'éliminer. La première consiste à rechercher le service DNS (Domain Name System) que vous utilisez si vous ne possédez pas votre propre serveur DNS. Une des causes cachées de la latence est le délai qui se produit lorsque le serveur DNS que vous utilisez recherche l'adresse IP (Internet Protocol) du site Web que vous souhaitez atteindre.

Un serveur DNS distant introduira une latence, de même qu'un serveur qui ne fonctionne tout simplement pas bien. Avoir votre propre serveur réduira ce temps de recherche, à condition que l'adresse soit dans les tables de votre serveur. Sinon, vous devrez attendre que le serveur DNS suivant soit en ligne pour l'adresse. Pour les sites Web que vous visitez fréquemment, cela peut réduire le temps de latence.

Avoir une connexion dédiée réduira également la latence, à condition qu’elle soit vraiment dédiée, ce qui signifie que vous avez une connexion utilisant une ligne définie. Il peut s’agir d’une connexion physique par fibre optique si vous êtes suffisamment proche ou d’une ligne louée à un opérateur. De cette manière, vous réduisez le nombre de routeurs impliqués et les risques d'erreurs de routage pouvant entraîner une latence.

Et bien sûr, vous pouvez réduire la distance. Selon les tableaux fournis par M2 Optics, 100 km de fibre introduisent près de 500 microsecondes de latence. C'est une demi milliseconde, vous voyez donc comment la distance peut faire que la latence s'additionne.

Faites en sorte que le houblon compte peu

Quel que soit le "traitement" que vous utilisez pour traiter le temps de latence, assurez-vous de son impact sur les autres aspects de votre réseau. Par exemple, si vous utilisez votre cloud pour la récupération après sinistre, une approche trop rapprochée peut entraîner son propre ensemble de problèmes, car vous ne souhaitez pas que le même sinistre se produise sur votre site de récupération d'urgence que sur votre centre de données.

En général, vous pouvez réduire le temps de latence en réduisant le nombre de sauts dans votre chemin. Il existe plusieurs façons de résoudre ce problème. En plus de ceux mentionnés précédemment, vous pouvez disposer d'une bande passante garantie pour réduire le temps de latence causé par la congestion, ou de fournisseurs redondants pour que votre application puisse choisir le chemin avec le moins de temps de latence en temps réel.

Bien que vous ne puissiez pas éliminer la latence sans violer les lois de la physique, vous ne pouvez pas non plus l'ignorer. Avec des applications populaires telles que l'analyse en temps réel, la vidéoconférence et même le trafic de voix sur IP (VoIP) de votre entreprise, le trafic devient de plus en plus sensible au temps de latence. dividendes sur la ligne.

Mesurez la latence de votre réseau avant que cela ne devienne un problème