L’expérience d’intelligence artificielle via le chatbot Tay de Microsoft, qui avait débuté mercredi, a tourné court. La firme de Redmont a préféré stopper l’exploitation du robot à l’allure féminine lequel les internautes pouvaient discuter via Twitter.
Motif : ce qui devait être une performance technologique et conversationnelle s’est transformée en bad trip.
Dans le concept du machine learning, Tay apprend progressivement au fur et à mesure des contacts avec les internautes.
Avec cette machine IA, Microsoft visait un public de jeunes adultes. Très vite, des petits malins ou des personnes vraiment mal intentionnées ont compris très vite les moyens d’influencer les réponses de Tay en lui envoyant des messages sous forme de trolls à répétition.
A tel point que Tay a délivré des messages incongrus, racistes, sexistes et même complotistes. Pour découvrir le bad trip de l’intelligence artificielle en une leçon et résumé en un tweet.
Microsoft a stoppé Tay au regard de la tournure du projet. Tout en laissant une porte ouverte à une reprise de son exploitation sur des bases plus saines pour poursuivre cette « expérience autant sociale et culturelle que technique ».
Mais, tout d’abord, il faudra oublier ce revers cuisant, qui suscite plus d’inquiétude que d’enthousiasme vis-à-vis des chatbots présentés comme l’avenir des services de messagerie instantanée.
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…