Comment se distinguer de ChatGPT dans la course à l’IA ? Amazon Web Services (AWS) répond avec le lancement d’Amazon Bedrock.
Le service permet aux développeurs de créer et mettre à l’échelle des applications basées sur l’intelligence artificielle générative, a indiqué AWS dans un billet de blog.
Disponible en « preview » limitée, Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d’apprentissage automatique (Few-Shot Models ou FM) provenant de start-up telles que AI21 Labs, Anthropic et Stability AI.
L’accès au modèle Titan, une famille de modèles formés en interne par AWS, est aussi proposé.
« Nous travaillons sur nos propres grands modèles de langage (LLM) depuis un certain temps maintenant. Nous sommes convaincus que cela aura un impact considérable sur l’expérience client et nous continuerons à investir fortement dans ces modèles pour toutes les expériences impliquant des clients, des vendeurs, des marques et des créateurs », a déclaré le CEO d’Amazon, Andy Jassy, dans une lettre aux actionnaires.
Amazon promeut également ses propres puces d’IA, AWS Trainium et Inferentia, pour entraîner et exécuter ces modèles sur son cloud. Aussi, un nouveau type d’instance EC2, Trn1, alimentée par Trainium, permettrait d’économiser « jusqu’à 50% » sur les coûts de formation de modèles d’IA par rapport à n’importe quelle autre instance EC2, selon l’hyperscaler.
L’annonce fait suite au partenariat renforcé en début d’année entre AWS et Hugging Face. Par ailleurs, AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d’une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (LLM) complexes. Plus récemment, AWS a lancé son accélérateur de start-up actives dans l’IA générative…
La concurrence n’est pas en reste. Microsoft, qui investit dans OpenAI (ChatGPT, DALL-E), et Google, qui promeut Bard, ont lancé tous deux des outils d’IA générative pour leurs plateformes cloud respectives. Microsoft a déployé Azure OpenAI Service en janvier dernier, Google Cloud a renforcé en mars ses capacités « intelligentes » de niveau professionnel.
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…