Pour relever le défi technique et scientifique de l’optimisation de campagnes multilocales il faut savoir répondre à deux biais structurels qui sortent du cadre classique et bien maîtrisé du machine learning.
Largement répandu pour répondre aux problématiques du marketing et de la publicité sur internet, le machine learning s’est imposé comme une solution incontournable de l’optimisation à la performance à grande échelle avec un minimum de ressources.
C’est d’ailleurs le cœur du réacteur de plateformes publicitaires comme Google et Facebook qui ont construit des IA très performantes pour répondre notamment aux problématiques du e-commerce.
Sauf que… l’application à la publicité locale est loin d’être si évidente. Contrairement à un site marchand, le magasin doit adapter son discours et ses offres à son environnement et aux particularités de l’audience de sa zone de chalandise.
Un barbecue dans une petite ville de campagne aura beaucoup plus d’impact que dans une zone urbaine à haute densité. Un vélo à assistance électrique sera plus pertinent dans une zone vallonnée que très plate. Un magasin du sud-ouest aura intérêt à mettre en avant ses promotions sur le vin quand un magasin du nord mettra l’accent sur les bières.
Derrière ces exemples plutôt caricaturaux se cache un constat clair : le machine learning, si puissant soit-il, doit nécessairement fonctionner avec une contrainte « multilocale » et prendre des décisions adaptées à des magasins très différents.
Biais géographique et temporel
Pour relever le défi technique et scientifique de l’optimisation de campagnes multilocales il faut savoir répondre à deux biais structurels qui sortent du cadre classique et bien maîtrisé du machine learning.
Le premier est géographique. Le volume de données récoltées est énorme, mais il se concentre localement autour des magasins participant à une opération, au lieu de se répartir uniformément sur le territoire. A titre d’exemple, 100 magasins communicant dans un rayon de 10 km couvriront moins de 6% de la superficie de la France métropolitaine.
Le second est temporel. Les magasins physiques ont besoin de communiquer autour de temps forts promotionnels, qui s’accompagnent d’animation dans le magasin, et d’un choix de produits à mettre en avant (les soldes, Pâques, la rentrée scolaire, la fête des mères, etc.). Ces opérations ont presque toutes la particularité d’être très courtes dans le temps, de quelques jours à trois semaines.
Les algorithmes qui existent aujourd’hui sont faits pour répondre à des campagnes de longues durées (donc qui s’étalent dans le temps) et nationales (donc qui se répartissent plus uniformément sur le territoire), et manquent d’agilité et de réactivité pour répondre aux biais décrits ci-dessus
Repousser les limites des méthodes classiques en data science
L’optimisation d’une campagne publicitaire magasin par magasin — en tirant profit des diversités locales et en prenant des décisions suffisamment rapides pour être efficaces sur des opérations promotionnelles courtes — constitue un ensemble de contraintes auquel les méthodes classiques de data science ne savent pas encore totalement répondre. Il est difficile de trouver dans la littérature scientifique des méthodologies permettant de l’aborder simplement. Il existe néanmoins des pistes de résolution.
Un des enjeux repose sur le bon niveau d’agrégation de la donnée qui permette d’atteindre la masse critique à partir de laquelle l’algorithme sera capable de prendre des décisions à la fois rapides et locales, tout en restant statistiquement pertinentes.
La combinaison de trois méthodes peut aider l’algorithme à agir avec le minimum de données.
D’abord avec l’identification de regroupements géographiques pertinents (des clusters régionaux de magasins par exemple), et l’utilisation d’une approche bayésienne pour descendre progressivement en granularité au fur et à mesure que de nouvelles données « chaudes » sont collectées. Ensuite l’utilisation des données « froides », autrement dit des campagnes passées, tout en tenant compte des effets de saisonnalité.
Enfin, faire apprendre et travailler l’algorithme en complément de l’IA des plateformes d’achat (en particulier Google et Facebook)
Cette recherche et définition d’ensembles cohérents de données permet d’orienter et de rendre beaucoup plus efficace l’apprentissage de modèles de machine learning.
C’est un travail d’ajustement et de remise en question permanent qui permet non seulement de répondre aux spécificités multilocales mais aussi d’approfondir et d’enrichir la maîtrise de cette technologie si prometteuse.