Que ce soit pour leur « pression marketing, publicitaire et commerciale », leur « domination de plus en plus accentuée en matière de flux d’échanges et de collecte de la donnée » ou leur statut de « seuls […] acteurs […] disposant d’un capacité de calcul suffisante [pour] proposer aux entreprises des services d’intelligence artificielle », difficile de passer, dans les conclusions de France IA, à côté des GAFA.
Ces sociétés technologiques américaines de premier plan (l’acronyme est utilisé pour « Google, Apple, Facebook, Amazon ») suscitent l’inquiétude au sein des différents groupes de travail qui composent la mission lancée il y a deux mois par le gouvernement pour poser les jalons d’une stratégie nationale dans le domaine de l’intelligence artificielle.
Organisée ce mardi à la Cité des sciences et de l’industrie (Paris 19e), la Journée de l’IA a marqué la clôture de la première phase de réflexion, qu’Axelle Lemaire – alors encore secrétaire d’État au Numérique et à l’Innovation – avait engagée le 20 janvier aux côtés de Thierry Mandon, son homologue à l’Enseignement supérieur et à la Recherche.
À cette occasion, 7 groupes de travail copilotés chacun par un représentant du secteur public et un représentant du secteur privé avaient été mis en place.
Le rapport de synthèse (document PDF, 350 pages) témoigne de la réorganisation qui s’est orchestrée depuis lors.
Trois grands axes ont été définis : l’orientation de la recherche en amont et le développement des compétences ; l’industrialisation et le transfert des technologies de l’IA vers les autres secteurs économiques en maximisant les retombées économiques sur le territoire national ; la préparation d’un cadre favorisant le développement de l’IA en prenant en compte les considérations économiques, sociales, éthiques, de souveraineté et de sécurité nationale.
Du côté du groupe de travail dédié à la recherche, on constate que celle-ci est morcelée en un grand nombre de sous-communautés dont certaines bénéficient d’un haut niveau d’autonomie. Non sans souligner que l’IA recoupe de nombreuses branche au-delà du machine learning : décision et gestion de l’incertitude, agents autonomes, vision et reconnaissance des formes, traitement automatique des langues…
Tous ces sujets de recherchent impliquent des liens plus ou moins marqués avec d’autres disciplines, des mathématiques à la linguistique en passant par la philosophie.
Leur développement dépendra aussi, selon France IA, de la capacité à se rapprocher des industriels. Ce qui devra impliquer une « prise de risques » avec, entre autres, des financements d’au moins un demi-million d’euros par projet sur une durée suffisamment importante (5 ans recommandés) et l’attribution de plusieurs dizaines de bourses par an.
Le groupe « Recherche amont » suggère également une initiative nationale pour créer des corpus exploitables, avec une plate-forme de partage de jeux de données et de code, ainsi que des capacités de calcul dédiées. Il appelle aussi à la création d’un Centre français pour l’IA, sous l’angle des rencontres et de la collaboration.
Le groupe « Formation » souligne lui aussi la nécessité de bases de données gratuites et d’infrastructures de calcul particulières, « comme aux États-Unis ».
Ayant repéré « plus de 200 start-up »* qui intègrent ou conçoivent des systèmes d’intelligence artificielle en France, il note que les PME semblent « encore loin de ces sujets », tandis que les élus sont « peu préparés pour appréhender les enjeux ».
À court terme, il est important de sensibiliser les décideurs, puis de concentrer la formation sur les développeurs et les spécialistes « métier » capables d’organiser les problèmes à résoudre pour les rendre accessibles aux solutions techniques existantes.
Un constat : en l’état, la formation initiale pour les ingénieurs en IA offre un « bon niveau d’expertise », mais elle est « morcelée thématiquement [approche très verticale] et géographiquement [écoles concentrées en région parisienne] ».
Misant sur l’arrivée de la programmation au collège et sur le développement de la spécialité « Informatique et science du numérique » au niveau lycée, le groupe de travail recommande, en complément, l’instauration d’un enseignement « IA, traitement des données et sciences numériques ».
Parmi ses autres suggestions figure la création d’un plan national de sensibilisation, développé sur au moins deux ans sous la houlette de l’Agence du numérique, avec une campagne grand public, des contenus pédagogiques pour les entreprises et une intervention auprès des organismes représentatifs (MEDEF, Syntec…).
Il s’agirait aussi de développer une ressource nationale, voire francophone, de données non agrégées, structurées et labellisées, dans la lignée des travaux d’Etalab. Tout en privilégiant les initiatives logicielles open source en IA bénéficiant à la recherche et à la formation.
Qu’en est-il du groupe dédié au transfert de technologies ? Il estime que le le tissu industriel est susceptible de bénéficier de l’intelligence artificielle, mais qu’il faut pouvoir lui proposer des données nettoyées, fiables et prêtes à l’emploi, être capable de garantir ou de certifier certaines méthodes, mais aussi disposer d’infrastructures au niveau des défis tout en répondant aux enjeux de souveraineté nationale.
L’élan pourrait être donné par un grand projet public fédérateur (nom suggéré : MarIAnne) qui impliquerait notamment la création d’un assistant conversationnel intelligent en soutien à la modernisation de l’action publique.
Autres recommandations : dédier aux start-up un fonds d’investissement qui fonctionne avec des tickets d’au moins 25 millions d’euros, développer des méthodes de test et de certification, créer une Fondation de l’IA et soutenir la création de plates-formes communautaires, matérielles et logicielles.
L’enquête menée dans le domaine de l’apprentissage automatique montre qu’il existe, en matière de transfert technologique, « des liens déjà forts entre académiques et industriels ». Le verrou pour l’industrialisation reste la compréhension la compréhension des algorithmes par les entreprises et la confiance dans les résultats qu’ils fournissent.
Dans des branches comme la programmation par contraintes et l’aide à la décision, la valorisation des résultats de recherche en reste à « une phase préliminaire » : il faudrait, selon le groupe de travail, accentuer la disponibilité des interlocuteurs chez les partenaires industriels. Sans négliger les sociétés de conseil et les intégrateurs, vus comme « des acteurs efficaces du couplage de l’offre et de la demande ».
Pour éviter la dépendance des PME, des ETI et des grands groupes aux « acteurs nord-américains », une résolution : mettre en place, sur 10 ans, un programme national pour stimuler la recherche, favoriser la diffusion des technologies et développer des programmes de formation initiale et permanente.
Pour ce qui est du développement de l’écosystème des fournisseurs de technologies d’IA, le groupe de travail positionné sur cette thématique recommande en premier lieu de faciliter l’accès aux jeux de données et aux moyens de traitement par filière et dans les régions.
Il conseille ensuite de diffuser les méthodes de l’intelligence artificielle « grâce à une verticalisation sur des thématiques métiers » en créant des « Hubs IA ».
Le tout s’assortirait d’un programme de détection et de soutien des talents entrepreneuriaux dans le monde étudiant et universitaire, d’une défiscalisation des rachats de start-up actives dans le domaine de l’IA et de la construction, sur le modèle de la French Tech, d’un dispositif international de promotion de l’écosystème français.
L’approche verticale s’est traduite par la constitution de trois sous-groupes qui ont respectivement planché sur la finance, la relation client et le véhicule autonome.
Sur ce dernier point, une approche logique complémentaire, à base de règles, est prônée pour la prise de décision, entre capacité à modifier des raisonnements pour créer facilement des variantes de décision et aptitude, en cas de litige, à justifier d’un raisonnement tenu.
Appelant à mutualiser les bases de données d’enregistrements de capteurs et à préciser le code de la route afin de « fournir une interprétation sans ambiguïté pour le véhicule autonome », le groupe de travail propose aussi de soutenir, pour l’écriture de la réglementation internationale, le principe de redondance algorithmique (plusieurs composants confirment un résultat) commun en aéronautique.
En matière de relation client, un postulat : l’intégration d’outils d’intelligence artificielle, c’est d’abord une conduite du changement, une phase d’intégration à l’environnement métier.
Casse sociale à prévoir ? Pas immédiatement pour le groupe de travail, qui estime que les systèmes automatisés de traitement des interactions avec l’utilisateur « requerront au moins durablement une assistance humaine pour pouvoir offrir une expérience satisfaisante ».
Avant même de mettre en avant les approches fondées sur l’IA, il faudra promouvoir, auprès du tissu économique, la composante relation client de la transformation numérique.
En toile de fond, le défi de l’équilibre entre compétitivité sur la scène internationale et défense des intérêts des consommateurs. Un cadre juridique devra être instauré pour sécuriser la collecte, le stockage et l’utilisation des données personnelles.
Et la finance ? Le groupe de travail associé à la thématique rappelle qu’en 2016, plus de 2 milliards de dollars ont été investis dans les start-up développant des systèmes d’IA appliquées à ce secteur d’activité.
Les robo-advisors (algorithmes de machine learning qui calibrent un modèle sur des données historiques pour déterminer la décision optimale dans les situations futures) et le trading automatique (processus d’allocation dans une stratégie d’investissement qui améliore le portefeuille en se basant sur une fonction de « regret déterministe ») semblent voués à s’imposer comme les deux premier domaines de diffusion de l’intelligence artificielle dans la finance.
Une fois encore, on nous signale que les véritables ruptures « paraissent dériver de la puissance de calcul [disponibilité d’architectures de GPU dans les datacenters] », mais aussi des données.
Les risques ? Ils sont légion : opacité de certains algos, le brouillage de la notion de responsabilité, la vulnérabilité des systèmes d’IA aux bugs, aux piratages et aux erreurs d’implémentation, modification des grands domaines d’expertise de l’assurance…
Des écueils qui requerront une concertation plus fluide entre régulateurs, institutions de place et sociétés FinTech, un cadre plus clair pour la gouvernance des données et la poursuite des efforts en matière d’open data.
Que ce soit sur le plan économique (extraction de connaissance), environnementale (réseaux intelligents) ou sécuritaire (caractérisation de logiciels malveillants), l’intelligence artificielle a, de l’avis de France IA, le potentiel de renforcer la souveraineté du pays.
Il faudra toutefois s’assurer de maîtriser les données, notamment en garantissant aux citoyens une « autodétermination informationnelle » et en évitant la banalisation des collectes massives. Mais aussi préserver une capacité d’action nationale et européenne face aux risques inhérents d’atteinte à la dignité humaine et d’usage de l’IA par des sources malintentionnées.
Le paramètre GAFA resurgit au chapitre des impacts économiques et sociaux. Google et consorts pourraient « reproduire le modèle des plates-formes numériques comme Booking, Airbnb ou Uber, qui ont su capter une part significative de la valeur d’un marché en se positionnant comme intermédiaire incontournable ».
Face à ces craintes, une recommandation : inciter les entreprises à développer et à intégrer des briques d’IA en fédérant les acteurs tricolores autour d’un réseau thématique qui mettrait à disposition les données nécessaires et faciliterait l’accès à l’expérimentation.
Sur le volet emploi, plus que des suppressions de postes, il faut anticiper une transformation des métiers. D’où la nécessité d’une « littératie de l’IA » avec une mobilisation de la société sur les formations initiales et une inventivité dans les formations sur poste. Ce qui suppose d’affiner les modèles économiques pour les secteurs non industriels comme l’éducation, la santé ou les politiques de la ville.
Notant qu’on est encore loin d’une intelligence artificielle « générale » susceptible d’apprendre de tout contexte à partir d’une poignée d’exemples, le groupe de travail affirme : « À ce stade de l’IA, il n’existe pas de nécessité impérieuse de repenser le dispositif législatif et réglementaire ». Il précise que « les mécanismes et régimes juridiques actuels couplés à la souplesse contractuelle permettent aujourd’hui de faire face aux évolutions technologiques ».
* Le groupe dédié à la cartographie de l’écosystème a identifié 268 équipes issues de 63 établissements ou organismes, pour plus de 5 000 chercheurs, dont environ 3 000 en poste. Il précise que les unités de recherche supportent presque systématiquement plusieurs équipes traitant chacune un champ spécifique des recherches en IA. Le paramètre quantitatif ne saurait donc appeler une interprétation qualitative.
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…