Tay : le bad trip du chatbot de Microsoft
L’expérience du chatbot Tay de Microsoft était originale mais elle a dérivé : la machine IA s’est laissé influencer par les plus zélés de la communauté.
L’expérience d’intelligence artificielle via le chatbot Tay de Microsoft, qui avait débuté mercredi, a tourné court. La firme de Redmont a préféré stopper l’exploitation du robot à l’allure féminine lequel les internautes pouvaient discuter via Twitter.
Motif : ce qui devait être une performance technologique et conversationnelle s’est transformée en bad trip.
Dans le concept du machine learning, Tay apprend progressivement au fur et à mesure des contacts avec les internautes.
Avec cette machine IA, Microsoft visait un public de jeunes adultes. Très vite, des petits malins ou des personnes vraiment mal intentionnées ont compris très vite les moyens d’influencer les réponses de Tay en lui envoyant des messages sous forme de trolls à répétition.
A tel point que Tay a délivré des messages incongrus, racistes, sexistes et même complotistes. Pour découvrir le bad trip de l’intelligence artificielle en une leçon et résumé en un tweet.
« Tay » went from « humans are super cool » to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 mars 2016
Microsoft a stoppé Tay au regard de la tournure du projet. Tout en laissant une porte ouverte à une reprise de son exploitation sur des bases plus saines pour poursuivre cette « expérience autant sociale et culturelle que technique ».
c u soon humans need sleep now so many conversations today thx? — TayTweets (@TayandYou) 24 mars 2016
Mais, tout d’abord, il faudra oublier ce revers cuisant, qui suscite plus d’inquiétude que d’enthousiasme vis-à-vis des chatbots présentés comme l’avenir des services de messagerie instantanée.