Pour gérer vos consentements :
Categories: Cloud

J. Coulon (Cedexis) : « Nous sommes les aiguilleurs du Net »

Les internautes ne le savent pas, mais lorsqu’ils naviguent sur un site à fort trafic, il se cache bien souvent des problématiques complexes à gérer pour les responsables techniques.

A commencer par l’amélioration de l’expérience de navigation des utilisateurs qui doit être en permanence remise en question sans toutefois faire exploser les coûts d’hébergement, de bande passante (transit IP) et de diffusion de contenus [CDN – Content Delivery Network, Réseaux de diffusion de contenus,NDLR].

Une équation que beaucoup d’éditeurs Web aimeraient voir se résoudre. C’est précisément le segment sur lequel intervient Cedexis, une jeune société franco-américaine créée mi-2009 par des spécialistes de l’hébergement, des réseaux IP et de la diffusion de contenus.

Pour en savoir plus sur la technologie développée par l’entreprise et son utilisation par des éditeurs Web, ITespresso.fr a rencontré Julien Coulon, co-fondateur de Cedexis.

(Interview réalisée par téléphone le 12 avril 2010)

ITespresso.fr : Pourriez-vous nous présenter Cedexis ?

J. Coulon : J’ai co-fondé Cedexis avec Marty Kagan. Nous avions travaillé ensemble pendant 3 ans chez Akamai. Marty est en quelque sorte le génie des réseaux, de l’accélération de particules IP et des routages DNS. Pour ma part, je suis chargé de la partie business. D’un point de vue global, l’équipe (six personnes) est répartie entre les États-Unis, la Thaïlande et la France. Elle est composée de gourous du DNS et des montages d’infrastructures complexes venant de chez Akamai, Cisco, Value Click et Dailymotion.

Le cœur de métier de Cedexis est de faire économiser des milliards d’heures de temps perdu aux internautes du monde entier.

ITespresso.fr : A qui s’adressent vos services ?

J. Coulon : Notre cible comprend toutes les entreprises qui considèrent leur site Internet comme un outil stratégique. Un site lent ou en panne est néfaste pour le business. Et c’est la que Cedexis intervient : nous souhaitons diviser par deux le temps d’affichage tout en optimisant les coûts de diffusion des contenus.

Pour être concret, je dirais que les événements malheureux du 11 septembre 2001 ont sans doute été le premier révélateur visible de l’usage déjà important d’Internet dans le monde. Le réflexe de millions de personnes de se tourner vers les sites d’informations en ligne a eu pour effet de paralyser la quasi-totalité d’entre eux. Cette grande déconvenue a poussé les équipes techniques à investir dans leur capacité à absorber des variations importantes de trafic. Avoir un site indisponible aujourd’hui n’est plus envisageable.

ITespresso.fr : Avez-vous un exemple précis ?

J. Coulon : La priorité est désormais tournée vers les performances d’affichage. En termes de chiffres, différentes études montrent que 81% de l’audience interrompt une visualisation de vidéo si sa lecture se suspend pour une phase de « bufferisation ». 60% de l’audience quitte un site si les pages mettent plus de 6 secondes à s’afficher. D’autres chiffres parlent d’eux-mêmes : 500 millisecondes de latence supplémentaire des serveurs Google entraîne 20% de recherche en moins et 10 millisecondes de latence supplémentaire des serveurs Amazon entraîne 1% de perte de chiffre d’affaires. C’est dire les enjeux considérables pour les acteurs de l’économie numérique que représente la gestion de ces performances tout en s’assurant que l’utilisateur final aura toujours un accès optimal aux contenus.

La performance permet de calculer mathématiquement les gains financiers. Un exemple : pour France Télévisions, une amélioration de 20% de ses performances augmente ses revenus de 10%.

ITespresso.fr : Techniquement, comment fonctionne votre solution ?

J. Coulon : Il y a tout d’abord une phase de monitoring pour avoir une vraie « vue » c’est-à-dire celle d’un internaute. En pratique, les éditeurs intègrent dans leurs pages un code JavaScript qui s’exécutera une fois la page chargée pour ne pas ralentir la navigation. Ces données vont nous remonter différents indicateurs.

Ainsi, à titre d’exemple, à 12h18, si l’internaute de Free veut afficher un contenu sur un site client, nous sommes capables de l’orienter vers le meilleur prestataire à l’instant « T » pour livrer le contenu demandé dans des conditions optimales. Nous nous positionnons en quelque sorte comme les « aiguilleurs du Net » ou le « GPS info trafic du Net ».

Notre savoir-faire nous permet d’avoir en temps réel une cartographie de l’état de santé de l’Internet. Notre plateforme gère déjà jusqu’à 500 000 mesures par minute, soit près d’un milliard à la journée. Nous avons, certes, des données plus fines et plus nombreuses que certaines solutions de monitoring mais les objectifs d’utilisation sont différents.

(lire la suite de l’interview en page 2)

Page: 1 2 3

Recent Posts

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

16 heures ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

1 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

2 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

2 mois ago

Windows 11 : comment Microsoft va réduire la taille des mises à jour

Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…

4 mois ago

Windows 11 : comment Bloc-notes va remplacer WordPad

Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…

4 mois ago