Pourquoi l'abus de l'intelligence artificielle par les grandes technologies ne doit pas nécessairement être inévitable

Pourquoi l’abus de l’intelligence artificielle par les grandes technologies ne doit pas nécessairement être inévitable

L’histoire des humains contre les machines Dans le film classique 2001 : Une odyssée de l’espacesorti en 1968, un vaisseau spatial se dirigeant vers Jupiter est équipé d’un ordinateur de bord nommé HAL 9000. Au fil du temps, cet ordinateur devient un antagoniste mortel des astronautes à bord du navire. Après une apparente erreur informatique, plusieurs membres de l’équipage tentent d’éteindre HAL. Au nom de la sauvegarde de la mission secrète du vaisseau spatial, HAL tue les membres de l’équipage. Finalement, cependant, l’astronaute Dave Bowman réussit à désactiver HAL, ignorant les appels désespérés de l’ordinateur à s’arrêter.

Dans Le terminateur (1984), le conflit entre les humains et une IA auto-préservée passe d’un cran, et le conflit devient une question de survie pour l’ensemble de l’espèce humaine.

Beaucoup de ces mêmes tropes apparaissent dans des films tels que La matrice (1999), Moi, Robot (2004), Transcendance (2014), Ex Machina (2015), M3gan (2022), Le Créateur (2023) et autres. Ils reflètent une peur particulière à l’égard de l’IA, amplifiée par des personnalités visibles de l’industrie technologique de ce siècle : que nous nous dirigeons vers un conflit entre les humains et les machines. Elon Musk a affirmé lors du sommet sur l’IA de Bletchley Park que l’IA est « l’une des plus grandes menaces pour l’humanité » et que, pour la première fois, nous sommes confrontés « à quelque chose qui sera bien plus intelligent que nous ». Sam Altman, d’OpenAI, a affirmé que l’IA générative pourrait entraîner la fin de la civilisation humaine et que l’IA présente un risque d’extinction comparable à la guerre nucléaire et aux pandémies mondiales.

La technologie n’est pas le destin. Tout comme les gens créent la technologie, ils décident comment elle est utilisée et quels intérêts elle sert.

Dans le monde universitaire, cette histoire a également trouvé un certain écho. Le philosophe Nick Bostrom a beaucoup écrit sur les risques existentiels de l’IA pour l’humanité et sur la possibilité d’une explosion du renseignement, où l’IA continue de s’améliorer une fois qu’elle a atteint le niveau humain. L’informaticien Stuart Russell et ses collaborateurs du Center for Human-Compatible Artificial Intelligence de l’Université de Californie à Berkeley ont souligné ce qu’on appelle problème d’alignement—c’est-à-dire le problème de l’alignement des objectifs de la machine sur les objectifs humains.

Une autre histoire dystopique, presque tout aussi effrayante, prétend que l’IA ne nous tuera pas, mais qu’elle rendra les travailleurs humains obsolètes, conduisant inévitablement à un chômage de masse et à des troubles sociaux. Un rapport de Goldman Sachs de 2023, par exemple, affirmait que l’IA générative pourrait remplacer trois cents millions de travailleurs à temps plein en Europe et aux États-Unis.

L’histoire racontée à Hollywood et dans la Silicon Valley tend à mettre en scène un conflit héroïque entre un homme (il s’agit généralement d’un homme) et une machine – Dave Bowman et HAL 9000 dans Odyssée de l’espaceKyle Reese et Terminator, Nathan et Ava dans Ex Machinaou Sam Altman et l’extinction de l’humanité causée par l’IA. La version académique de l’histoire, telle que racontée par les informaticiens, a également tendance à mettre en scène un homme et une machine, où il existe un problème d’alignement des valeurs de la machine (c’est-à-dire un objectif mal spécifié) ou un biais de la machine par rapport à son objectif.

Ce qui manque à la vieille histoire L’une des questions clés qui manquent dans l’histoire de l’homme contre la machine : la technologie n’est pas le destin. Tout comme les gens créent la technologie, ils décident comment elle est utilisée et quels intérêts elle sert. Ces décisions sont prises à maintes reprises au fur et à mesure que l’IA est développée et déployée. L’IA n’est d’ailleurs finalement pas si compliquée. Le fonctionnement de l’IA peut être compris par n’importe qui. Le véritable conflit ne se situe pas entre un humain et une machine mais entre les différents membres de la société. Et la réponse aux divers risques et méfaits de l’IA réside dans le contrôle public des objectifs de l’IA par des moyens démocratiques.

L’IA est, à la base, une prise de décision automatisée utilisant optimisation. Cela signifie que les algorithmes d’IA sont conçus pour rendre un objectif mesurable aussi grand que possible. De tels algorithmes pourraient, par exemple, maximiser le nombre de fois qu’un internaute clique sur une annonce. L’IA nécessite donc que quelqu’un choisisse l’objectif – le récompense– qui est en cours d’optimisation. Quelqu’un doit littéralement taper sur son ordinateur : « C’est la mesure de récompense qui nous tient à cœur. »

La question importante est alors de savoir qui choisira le objectifs des systèmes d’IA. Nous vivons dans une société capitaliste et, dans une telle société, les objectifs de l’IA sont généralement déterminés par les propriétaires du capital. Les propriétaires du capital contrôlent moyens de prédiction qui sont nécessaires à la construction de l’IA : données, infrastructure informatique, expertise technique et énergie. Plus généralement, les objectifs de l’IA sont déterminés par ceux qui détiennent le pouvoir social, que ce soit dans le système de justice pénale, dans l’éducation, dans la médecine ou dans les forces de police secrètes des États de surveillance autocratiques.

L’un des domaines dans lesquels l’IA est déployée dans la société est le lieu de travail. L’IA est utilisée dans les entrepôts robotisés d’Amazon, dans la gestion algorithmique des chauffeurs Uber et dans la sélection des candidats par les grandes entreprises. L’IA est également utilisée dans des domaines importants en dehors du lieu de travail, notamment dans le filtrage et la sélection des flux Facebook et des résultats de recherche Google, où l’objectif est de maximiser les clics publicitaires. Un troisième domaine est celui de la police prédictive et de l’incarcération des accusés en attente de procès sur la base de la prédiction de crimes qu’ils n’ont pas encore commis. Ce qui est peut-être le plus dévastateur, c’est que l’IA est également déployée dans les guerres ; il a par exemple été utilisé pour décider quelles maisons familiales bombarder à Gaza à partir de 2023.

Bien entendu, bon nombre de chercheurs et de critiques ont mis en garde contre les dangers liés à l’utilisation de l’IA dans ces domaines conséquents. Joy Buolamwini, informaticienne au MIT Media Lab, a beaucoup écrit sur les dangers des systèmes de reconnaissance faciale inexacts et racistes. Ruha Benjamin, sociologue à Princeton, a souligné que l’IA peut reproduire et renforcer les inégalités sociales existantes dans des domaines tels que l’éducation, l’emploi, la justice pénale et les soins de santé. Dans la même veine, Timnit Gebru, une informaticienne écrivant alors qu’elle travaillait chez Google, a mis en garde contre les dangers des grands modèles de langage agissant comme des perroquets stochastiques, qui répètent des modèles de langage sans les comprendre et, ce faisant, reproduisent les biais intégrés dans leurs données d’entraînement. Meredith Whittaker, actuellement présidente de la Signal Foundation, a critiqué l’économie politique de l’industrie technologique, où l’IA est utilisée par des acteurs puissants de manière à renforcer la marginalisation. Kate Crawford, professeur à l’Université de Californie du Sud et co-fondatrice de l’AI Now Institute, a souligné la nature de l’IA en tant qu’industrie d’extraction et d’exploitation.

Le problème est que l’objectif optimisé par l’algorithme est bon pour ceux qui contrôlent les moyens de prédiction… mais pas bon pour le reste de la société.

Au milieu de ces critiques qui se chevauchent, chacune axée sur un aspect et un piège différent de l’IA, il est difficile de formuler une manière systématique de penser l’IA dans la société. L’informatique constitue une perspective unificatrice possible. Les informaticiens sont formés pour considérer la plupart des problèmes comme des problèmes d’optimisation. Dans ce contexte, l’optimisation implique de trouver la décision qui rend une récompense donnée aussi grande que possible, compte tenu de ressources informatiques et de données limitées.

La perspective informatique a largement influencé le discours public sur la sécurité et l’éthique de l’IA, en particulier sur des sujets tels que l’équité ou l’alignement des valeurs : « S’il y a quelque chose qui ne va pas, alors il doit y avoir une erreur d’optimisation. » De ce point de vue, le problème est simplement qu’une action choisie n’a pas réussi à maximiser l’objectif spécifié. Cependant, dans la plupart des cas, cette perspective ne va pas au cœur du problème, car elle ne s’intéresse pas au choix de l’objectif lui-même.

Je soutiens qu’au lieu des erreurs d’optimisation, ce sont les conflits d’intérêts sur le contrôle des objectifs de l’IA qui constituent la question centrale. Lorsque l’IA cause du tort à l’homme, le problème n’est généralement pas qu’un algorithme n’a pas été parfaitement optimisé. Le problème est que l’objectif optimisé par l’algorithme est bon pour ceux qui contrôlent les moyens de prédiction – des gens comme Jeff Bezos, fondateur et ancien PDG d’Amazon, et Mark Zuckerberg, fondateur et PDG de Meta – mais pas bon pour le reste de la société.

Cette compréhension change la façon dont nous devrions réfléchir aux solutions possibles aux problèmes de l’IA. Comment pouvons-nous aborder l’éthique et la sécurité de l’IA si les problèmes sous-jacents proviennent des parties qui fixent les objectifs de l’IA ? Comment choisir ces objectifs de manière à servir le public plutôt que simplement une puissante minorité ? Mais la solution aux problèmes d’éthique et de sécurité de l’IA ne peut être que contrôle démocratique. Le contrôle démocratique ne se limite pas aux gouvernements nationaux démocratiquement élus ; la prise de décision démocratique collective peut exister à de nombreux niveaux, notamment sur le lieu de travail, au niveau de l’État-nation et au niveau mondial.

Le défi, bien entendu, est que la démocratie est difficile. Le contrôle démocratique d’une nouvelle technologie comme l’IA nécessite une délibération publique, et une telle délibération publique peut sembler impossible compte tenu de l’opinion répandue (et renforcée par l’industrie technologique) selon laquelle l’IA est très compliquée.

Mais malgré tout le jargon technique et malgré la course effrénée aux innovations les plus récentes, les idées de base de l’IA ne sont pas si compliquées ni si nouvelles, et elles peuvent être comprises par nous tous. Peu importe qui vous êtes, ne laissez personne vous dire que vous n’êtes pas du genre à comprendre l’IA.

__________________________________

Depuis Les moyens de prédiction : comment fonctionne réellement l’IA (et qui en profite) par Maximilien Kasy. Copyright © 2025. Disponible auprès de University of Chicago Press.

Publications similaires