L’expérience d’intelligence artificielle via le chatbot Tay de Microsoft, qui avait débuté mercredi, a tourné court. La firme de Redmont a préféré stopper l’exploitation du robot à l’allure féminine lequel les internautes pouvaient discuter via Twitter.
Motif : ce qui devait être une performance technologique et conversationnelle s’est transformée en bad trip.
Dans le concept du machine learning, Tay apprend progressivement au fur et à mesure des contacts avec les internautes.
Avec cette machine IA, Microsoft visait un public de jeunes adultes. Très vite, des petits malins ou des personnes vraiment mal intentionnées ont compris très vite les moyens d’influencer les réponses de Tay en lui envoyant des messages sous forme de trolls à répétition.
A tel point que Tay a délivré des messages incongrus, racistes, sexistes et même complotistes. Pour découvrir le bad trip de l’intelligence artificielle en une leçon et résumé en un tweet.
Microsoft a stoppé Tay au regard de la tournure du projet. Tout en laissant une porte ouverte à une reprise de son exploitation sur des bases plus saines pour poursuivre cette « expérience autant sociale et culturelle que technique ».
Mais, tout d’abord, il faudra oublier ce revers cuisant, qui suscite plus d’inquiétude que d’enthousiasme vis-à-vis des chatbots présentés comme l’avenir des services de messagerie instantanée.
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…