Gcore, le fournisseur mondial de solutions d’IA, de cloud, de réseau et de sécurité en périphérie, annonce aujourd’hui le lancement de Gcore Inference at the Edge, une solution révolutionnaire qui offre des expériences de latence ultra-faible pour les applications d’IA. Cette solution innovante permet le déploiement distribué de modèles d’apprentissage automatique (ML) pré-entraînés sur les nœuds d’inférence en périphérie, assurant ainsi une inférence optimale en temps réel.
Ce communiqué de presse contient des éléments multimédias. Voir le communiqué complet ici : https://www.businesswire.com/news/home/20240606584165/fr/
Gcore Inference at the Edge empowers businesses across diverse industries with cost-effective, scalable, and secure AI model deployment (Graphic: Gcore)
Gcore Inference at the Edge permet aux entreprises de divers secteurs, notamment l’automobile, la fabrication, la vente au détail et la technologie, de déployer des modèles d’IA rentables, évolutifs et sécurisés. Des cas d’utilisation tels que l’IA générative, la reconnaissance d’objets, l’analyse comportementale en temps réel, les assistants virtuels et la surveillance de la production peuvent maintenant être rapidement réalisés à l’échelle mondiale.
Gcore Inference at the Edge fonctionne sur le vaste réseau mondial de plus de 180 nœuds périphériques de Gcore, tous interconnectés par la technologie sophistiquée de routage intelligent et à faible latence de Gcore. Chaque nœud haute performance se trouve à la périphérie du réseau Gcore, plaçant stratégiquement les serveurs à proximité des utilisateurs finaux. Inference at the Edge fonctionne sur les GPU L40S de NVIDIA, la puce leader du marché conçue spécifiquement pour l’inférence d’IA. Lorsqu’un utilisateur envoie une demande, un nœud périphérique détermine l’itinéraire vers la région d’inférence disponible la plus proche avec la latence la plus faible, générant un temps de réponse type inférieur à 30 ms.
La nouvelle solution prend en charge une large gamme de modèles ML et personnalisés fondamentaux. Les modèles de fondation open source disponibles dans le Gcore ML Model Hub incluent LLaMA Pro 8B, Mistral 7B et Stable-Diffusion XL. Les modèles peuvent être sélectionnés et entraînés de manière agnostique pour s’adapter à n’importe quel cas d’utilisation, avant de les distribuer globalement aux nœuds Gcore Inference at the Edge. Cela répond à un défi important auquel sont confrontées les équipes de développement, avec des modèles d’IA généralement exécutés sur les mêmes serveurs que ceux sur lesquels ils ont été formés, ce qui entraîne de piètres performances.
Parmi les avantages de Gcore Inference at the Edge figurent :
- Un déploiement rentable : une structure tarifaire flexible garantissant que les clients ne paient que pour les ressources qu’ils utilisent.
- Protection DDoS intégrée : les terminaux ML sont automatiquement protégés contre les attaques DDoS par l’intermédiaire de l’infrastructure de Gcore.
- Un niveau exceptionnel de confidentialité et de sécurité des données : la solution est conforme aux normes RGPD, PCI DSS et ISO/IEC 27001.
- Mise à l’échelle automatique du modèle : la mise à l’échelle automatique est disponible pour gérer les pics de charge, de sorte qu’un modèle est toujours prêt à supporter les pics de demande et les pics inattendus.
- Stockage d’objets illimité : stockage cloud évolutif compatible S3 qui s’adapte en fonction de l’évolution des besoins du modèle.
Andre Reitenbach, CEO de Gcore, déclare : «Gcore Inference at the Edge permet aux clients de se concentrer sur la formation de leurs modèles d’apprentissage automatique, plutôt que de se soucier des coûts, des compétences et de l’infrastructure nécessaires pour déployer des applications d’IA à l’échelle mondiale. Chez Gcore, nous croyons que la périphérie est l’endroit où les meilleures performances et expériences de l’utilisateur final sont atteintes, et c’est pourquoi nous innovons continuellement pour nous assurer que chaque client reçoit une échelle et des performances inégalées. Gcore Inference at the Edge fournit toute la puissance sans aucun tracas, offrant ainsi une expérience d’inférence d’IA moderne, efficace et efficiente. »
Pour de plus amples renseignements, rendez-vous sur https://gcore.com/inference-at-the-edge
À propos de Gcore
Gcore est le fournisseur mondial de solutions d’IA, de cloud, de réseau et de sécurité en périphérie. Gcore fournit ses solutions aux leaders mondiaux dans de nombreuses industries. La société gère sa propre infrastructure IT mondiale sur six continents, avec l’une des meilleures performances réseau en Europe, en Afrique et en Amérique latine, avec un temps de réponse moyen de 30 ms. Le réseau de Gcore se compose de plus de 180 points de présence au niveau mondial, dans des centres de données éprouvés de niveau IV et III, pour une capacité totale dépassant 200 Tbps.
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Consultez la version source sur businesswire.com : https://www.businesswire.com/news/home/20240606584165/fr/