Pour gérer vos consentements :
Categories: Cloud

Réseau : Google suggère une refonte du protocole TCP

Google mise sur une refonte du protocole TCP pour minimiser l’encombrement des réseaux et le temps de latence, accélérant ainsi le chargement des pages Web.

Il s’agirait notamment d’élargir la fenêtre de congestion, de diviser par 3 le timeout initial, d’avoir recours à la technologie Fast Open et de remodeler les algorithmes de restauration des paquets perdus ou cassés au cours d’une transaction.

Mis sur pied en 1973, le dénommé TCP (pour Transmission Control Protocol) constitue, de par sa fiabilité, une interface idéale entre la couche réseau et la sphère applicative.

A l’heure où le commun des salariés connectés ne compte plus les requêtes adressées en premier lieu aux moteurs de recherche tels que Google Search, de telles transactions foisonnent et occasionnent, à l’appui de force kilo-octets, une congestion du trafic.

A cet égard, il devient nécessaire d’améliorer les performances du système. Dans le collimateur, de substantiels gains de temps et une productivité accrue d’autant.

Les dernières versions des principaux navigateurs Web s’attachent à combler tant bien que mal ce déficit. Mais l’artifice impliqué, en l’occurrence la multiplication des connexions TCP simultanées, rencontre des limites techniques.

A en croire les équipes de Google, auteures d’une étude en ce sens, réduire le timeout initial contribuerait à accélérer le chargement des pages, indépendamment des réseaux (localisation, débit…) d’accès.

En parallèle, rehausser de 4 à 10 segments l’envergure de la fenêtre de congestion (contrôle du trafic des paquets) diminuerait le temps de réponse et accoucherait d’une vélocité de l’ordre de 10% supplémentaires.

La firme de Mountain View recommande par ailleurs l’utilisation du TCP Fast Open. L’inclusion, au sein du paquet TCP SYN, de la requête préliminaire de rigueur pour certains hôtes HTTP distants, déchargerait la fenêtre de congestion et accoucherait d’un chargement jusqu’à 40% plus rapide.

Quant à l’algorithme PRR (Proportional Rate Reduction), plus efficace qu’un simple ajustement du débit des données, il offrirait flexibilité et sécurité à l’exercice de récupération des paquets perdus ou corrompus des suites d’une surcharge réseau.

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago