Facebook cherche à donner de la personnalité aux chatbots
Le labo de recherche en IA de Facebook a conçu un jeu de données destiné à rendre les chatbots plus engageants en leur donnant de la « personnalité ».
« J’ai un chien. As-tu aussi des animaux de compagnie ? »
Cette question est posée dans l’intitulé du dernier rapport publié par le laboratoire de recherche FAIR, que Facebook dédie à l’intelligence artificielle.
Elle fait référence aux travaux que six chercheurs de la structure basée entre Menlo Park (Californie), New York et Paris ont menés sur les chatbots.
Leur postulat : pour rendre plus engageant le dialogue avec ces agents conversationnels, il faut non seulement les doter d’une mémoire à long terme et d’une capacité à éviter au maximum les réponses génériques, mais aussi faire en sorte de leur donner une personnalité et un point de vue qu’ils puissent conserver tout au long de la discussion.
Les chercheurs constatent qu’en l’état, les chatbots sont pour l’essentiel développés dans une logique d’accompagnement de tâches clairement définies (réservation d’un restaurant, d’un billet d’avion…), où l’intention de l’utilisateur est connue dès le départ.
Ceux qui vont au-delà sont souvent entraînés avec des données issues des plates-formes sociales (Reddit et Twitter sont cités en exemple), ainsi que de scripts de films (OpenSubtitles).
Face aux incohérences que produisent les modèles ainsi entraînés (cf. le dialogue ci-dessous), l’équipe de FAIR a décidé de créer son propre jeu de données : Persona-Chat.
« Game of Thrones » et Michael Jordan
Les contributeurs de la marketplace Amazon Mechanical Turk ont été sollicités dans ce cadre.
Avec leur aide ont été constituées 1 155 « personnalités », sous la forme de profils contenant au moins cinq caractéristiques applicables à un humain. Par exemple : je suis artiste, j’ai quatre enfants, j’ai un chat depuis peu, j’aime aller marcher et j’adore regarder « Game of Thrones ».
Pour éviter que certains termes se retrouvent, ces personnalités ont été soumises à d’autres contributeurs, qui les ont réécrites avec des caractéristiques similaires, « J’aime le basket-ball » devenant par exemple « Je suis fan de Michael Jordan ».
Ces personnalités ont ensuite été attribuées à des humains mis en binômes aléatoires et chargés de dialoguer. Il en a résulté Persona-Chat, comprenant près de 11 000 conversations pour un peu plus de 160 000 répliques.
Le jeu de données a alors été appliqué à plusieurs algorithmes, avec l’objectif de leur apprendre à anticiper la suite d’un dialogue.
Les chercheurs ont étudié quatre cas de figure : un chatbot avec une personnalité propre et connaissant celle de son interlocuteur, seulement l’un ou l’autre de ces deux paramètres, voire aucun.
L’ego des chatbots
Deux catégories de modèles ont été entraînés.
D’une part, ceux dits « de classification », de celui qui cherche simplement la réponse la plus probable dans le jeu de données à celui qui travaille avec des unités de sens en passant par celui qui traite d’abord l’historique de la conversation avant de s’intéresser aux personnalités.
De l’autre, ceux capables de générer de nouvelles phrases mot à mot,notamment en encodant chaque personnalité comme une entité distincte dans un réseau de mémoire annexe.
Les chercheurs en ont conclu que les chatbots s’amélioraient plus sensiblement en tenant compte de leur personnalité que de celle de leur interlocuteur. Mais que dans tous les cas, ils se montraient plus efficaces pour amorcer des conversations avec un inconnu.
Des incohérences subsistent avec ce type d’agents conversationnels qui, s’ils ne sont pas nécessairement perçus comme plus engageants, paraissent néanmoins autrement cohérents que ceux entraînés sur des dialogues de films.
Crédit photo : Ars Electronica via Visual Hunt / CC BY-NC-ND