Sous la bannière de Future of Life Institute et d’Elon Musk (Tesla, SpaceX, OpenAI), un panel d’experts dans l’intelligence artificielle du monde entier s’engagecontre les risques de prolifération des armes létales autonomes qui l’on tend à surnommer les « robots tueurs ».
Dans une lettre adressée à l’Organisation des Nations Unies et publiée à l’occasion de la conférence IJCAI qui se déroule jusqu’au 25 août à Melbourne (Australie), des spécialistes issus de 116 organisations ont lancé un signal d’alarme à propos du danger des armes létales autonomes (LAWS, acronyme de « lethal autonomous weapons systems » en anglais).
Elles sont susceptibles de symboliser « la troisième révolution de la guerre » et de tomber dans les mains de despotes, d’Etat renégats ou de groupes terroristes.
Une douzaine de pays, comme les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et la Grande-Bretagne, développent des systèmes d’armes autonomes, selon l’association de défense des Droits de l’Homme Human Rights Watch.
Parmi les signataires du texte émanant du Future of Life Institute figurent des pointures comme Demis Hassabis, cofondateur et CEO de DeepMind (propriété de Google, UK), Esben Østergaard (cofondateur et CTO d’Universal Robotics, Danemark) mais aussi Yoshua Bengio (fondateur d’Element AI, Canada).
Tous demandent à l’ONU une interdiction de ses armes autonomes potentiellement destructrices.
L’image de Terminator au cinéma a marqué les esprits mais la menace est prise au sérieux au regard des progrès réalisés dans la sphère de l’intelligence artificielle.
« Nous avons peu de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer », assurent le collège d’experts qui interpellent la communauté internationale.
Dans la liste des signataires, on distingue des spécialistes français dans l’intelligence artificielle.
Pêle-mêle, on trouve Raul Bravo (DIBOTICS, qui développe une solution de reconstruction en temps réel de l’environnement autour d’un véhicule), Raphael Cherrier (Qucit, qui a crée une plateforme prédictive urbaine) et Jérome Monceaux (Spoon.ai qui crée des créatures artificielles, également fondateur de la société Aldebaran Robotics à qui l’on doit les robots Nao et Pepper et passée sous la bannière du groupe japonais SoftBank).
Dans la liste, on repère aussi Charles Ollion (Heuritech, start-up développant une technologie de reconnaissance d’images pour l’univers de la mode notamment), Anis Sahbani (Enova Robotics, premier constructeur robotique en Afrique) et Alexandre Vallette (SNIPS qui se concentre sur l’analyse prédictive des données, Ants Open Innovation Labs positionnée comme une « civic hacker company »).
L’ensemble des signataires issus de 24 pays appellent à l’interdiction totale des armes offensives autonomes.
Les risques de dérive de l’exploitation de l’IA est un sujet qui tient à coeur le charismatique entrepreneur et homme d’affaires Elon Musk. Il intervient régulièrement sur ce sujet pour sensibiliser l’opinion publique.
(Crédit photo : copie écran reportage vidéo via ABC.net.au)
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…
Microsoft modifie la fonctionnalité de Recall sur les PC Copilot+ qui passe en opt-in. Reste…