Stephen Hawking, scientifique mondialement réputé pour ses travaux en cosmologie et physique des trous noirs, co-signe une tribune dans le journal britannique The Independant. Il dénonce un manque d’intérêt de la communauté scientifique pour les risques inhérents au développement de l’intelligence artificielle.
Associé à d’autres chercheurs de renom comme Stuart Russel, Max Tegmark et Frank Wilczek, il tire le signal d’alarme. « Développer avec succès l’intelligence artificielle pourrait être le plus grand événement dans l’histoire de l’humanité. Malheureusement, ce pourrait aussi être le dernier », estiment-ils. Les risques qu’ils évoquent sont multiples mais renvoient tous à des problématiques déjà explorées dans le domaine du cinéma.
Ainsi, dans des films comme iRobot ou Terminator, peut-on voir émerger des formes d’intelligence artificielle (souvent associées à des robots) ultra-connectées et omniprésentes ? Lorsque celles-ci décident de se retourner contre leurs créateurs, elles sont capables de bloquer la plupart des services et infrastructures qui nous font vivre actuellement.
Pure fiction ? Stephen Hawking et les trois autres scientifiques estiment que ces scénarios restent plausibles. « On peut imaginer que cette technologie soit capable de déjouer les marchés financiers, de dépasser les scientifiques humains, de manipuler les dirigeants et développer des armes qu’on ne puisse pas comprendre. L’incidence à court terme de l’intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. »
Que recommandent les quatre personnalités ? Il faut modifier la nature des travaux portés sur l’intelligence artificielle. Il faudrait associer la volonté de créer une nouvelle intelligence aux recherches portant sur les moyens de la contrôler. Reviendrait alors sur le tapis d’autres problématiques comme celle du servage. Créer une forme d’intelligence et l’asservir ne serait-ce pas immoral (on se souvient d’ailleurs que le mot « Robot » est issu de racines slaves référant au travail, aux corvées).
Actuellement, les technologies faisant appel aux fondamentaux de l’IA comme les assistants personnels des smartphones (Siri, Cortana…) ou encore l’ordinateur Watson d’IBM et les voitures intelligentes de Google, ne « font que pâle figure comparé à ce qui pourrait advenir dans les dizaines prochaines années ».
Reste à savoir si les trois lois de la robotique d’Asimov* suffiront à nous protéger quand la machine décidera de sa propre destinée.
Stephen Hawking est directeur de recherche en mathématiques appliquées et physiques théoriques de l’Université de Cambridge. Stuart Russell professeur en sciences informatiques de l’Université de Berkeley (Californie). Max Tegmark et Frank Wilczek sont des experts en physiques au MIT.
Lois de la robotique d’Asimov |
Au nombre de trois, les lois de la robotique énoncées par l’écrivain Isaac Asimov dans ses récits de science-fiction sont censées garantir le fait qu’un robot ne pourra jamais nuire à un humain de quelle que manière que ce soit.
|
Quiz : Siri, Google Now, Cortana : la reconnaissance vocale, ça vous parle ?
Crédit image : agsandrew pour Shutterstock
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…