Pour gérer vos consentements :

Amazon Bedrock : la réponse d’AWS à ChatGPT

Comment se distinguer de ChatGPT dans la course à l’IA ? Amazon Web Services (AWS) répond avec  le lancement d’Amazon Bedrock.

Le service permet aux développeurs de créer et mettre à l’échelle des applications basées sur l’intelligence artificielle générative, a indiqué AWS dans un billet de blog.

Amazon Bedrock fournit  un accès à des modèles pré-entraînés d’apprentissage automatique

Disponible en « preview » limitée, Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d’apprentissage automatique (Few-Shot Models ou FM) provenant de start-up telles que AI21 Labs, Anthropic et Stability AI.

L’accès au modèle Titan, une famille de modèles formés en interne par AWS, est aussi proposé.

« Nous travaillons sur nos propres grands modèles de langage (LLM) depuis un certain temps maintenant. Nous sommes convaincus que cela aura un impact considérable sur l’expérience client et nous continuerons à investir fortement dans ces modèles pour toutes les expériences impliquant des clients, des vendeurs, des marques et des créateurs », a déclaré le CEO d’Amazon, Andy Jassy, dans une lettre aux actionnaires.

Amazon promeut également ses propres puces d’IA, AWS Trainium et Inferentia, pour entraîner et exécuter ces modèles sur son cloud. Aussi, un nouveau type d’instance EC2, Trn1, alimentée par Trainium, permettrait d’économiser « jusqu’à 50% » sur les coûts de formation de modèles d’IA par rapport à n’importe quelle autre instance EC2, selon l’hyperscaler.

AWS pousse les modèles d’IA de Hugging Face

L’annonce fait suite au partenariat renforcé en début d’année entre AWS et Hugging Face. Par ailleurs, AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d’une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (LLM) complexes. Plus récemment, AWS a lancé son accélérateur de start-up actives dans l’IA générative…

La concurrence n’est pas en reste. Microsoft, qui investit dans OpenAI (ChatGPT, DALL-E), et Google, qui promeut Bard, ont lancé tous deux des outils d’IA générative pour leurs plateformes cloud respectives. Microsoft a déployé Azure OpenAI Service en janvier dernier, Google Cloud a renforcé en mars ses capacités « intelligentes » de niveau professionnel.

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

2 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago