Le terme "temps de latence" fait référence à l'un quelconque de plusieurs types de retards généralement encourus dans le traitement des données du réseau. Une connexion réseau à faible temps de latence est une connexion qui subit de petits délais, tandis qu'une connexion à haut temps de latence souffre de longs délais.
Outre les retards de propagation, la latence peut également impliquer des retards de transmission (propriétés du support physique) et des retards de traitement (tels que le passage par des serveurs proxy ou la réalisation de sauts de réseau sur Internet).
Bien que la perception de la vitesse et des performances du réseau ne soit généralement comprise que comme une bande passante, la latence est l’autre élément clé. La personne moyenne est plus familiarisée avec le concept de bande passante car il s'agit de l'indicateur généralement annoncé par les fabricants d'équipements de réseau, mais la latence compte tout autant pour l'expérience de l'utilisateur final.
Latence versus débit
Bien que la bande passante maximale théorique d'une connexion réseau soit fixée en fonction de la technologie utilisée, la quantité réelle de données qui y circule (appelée "débit") varie dans le temps et est affectée par les latences plus hautes et plus basses.
Une latence excessive crée des goulots d'étranglement empêchant les données de remplir le canal réseau, ce qui diminue le débit et limite la bande passante maximale efficace d'une connexion. L'impact de la latence sur le débit du réseau peut être temporaire (quelques secondes) ou persistant (constant), en fonction de la source des retards.
Latence des services Internet, logiciels et périphériques
Sur les connexions DSL et Internet par câble, des latences inférieures à 100 millisecondes (ms) sont typiques et inférieures à 25 ms sont souvent possibles. Par contre, avec les connexions Internet par satellite, les latences typiques peuvent être de 500 ms ou plus.
Un service Internet évalué à 20 Mbps peut être nettement moins performant qu’un service évalué à 5 Mbps s’il est exécuté avec une latence élevée.
Le service Internet par satellite illustre la différence entre la latence et la bande passante sur les réseaux informatiques. Les satellites possèdent à la fois une bande passante élevée et une latence élevée. Lors du chargement d’une page Web, par exemple, la plupart des utilisateurs de satellites peuvent observer un retard notable à partir du moment où ils saisissent l’adresse jusqu’à ce que le chargement de la page commence.
Cette latence élevée est principalement due au temps de propagation car le message de requête se propage à la vitesse de la lumière vers la station satellite distante et revient vers le réseau domestique. Cependant, une fois que les messages arrivent sur Terre, la page se charge rapidement, comme sur d’autres connexions Internet à haut débit (telles que DSL et Internet par câble).
La latence WAN est un autre type de latence qui peut se produire lorsque le réseau est occupé à gérer le trafic au point que les autres demandes sont ensuite retardées car le matériel ne peut tout simplement pas les gérer à des vitesses maximales. Cela affecte également le réseau filaire, car tout le réseau fonctionne ensemble.
Une erreur ou un autre problème lié au matériel peut augmenter le temps qu'il prend pour lire les données, ce qui constitue une autre raison du temps de latence. Cela peut être le cas pour le matériel réseau ou même le matériel du périphérique, comme un disque dur lent nécessitant du temps pour stocker ou récupérer des données.
Le logiciel en cours d'exécution sur le système peut également provoquer une latence. Certains programmes antivirus analysent toutes les données qui entrent et sortent de l'ordinateur, ce qui explique en partie pourquoi certains ordinateurs protégés sont plus lents que leurs homologues. Les données analysées sont souvent déchirées et numérisées avant de pouvoir être utilisées.
Mesurer la latence du réseau
Des outils réseau, tels que les tests ping et traceroute, mesurent le temps de latence en déterminant le temps nécessaire à un paquet réseau donné pour se déplacer de la source à la destination, et inversement, appelé "temps d'aller-retour". Le temps aller-retour n’est pas le seulement mesure de la latence, mais c’est la plus courante. Les fonctionnalités de qualité de service (QoS) des réseaux domestiques et professionnels sont conçues pour aider à gérer conjointement la bande passante et la latence afin de fournir des performances plus cohérentes.