Les risques actuels de l’IA inquiètent davantage que les scénarios d’avenir apocalyptiques

- EN- DE- FR - IT

En règle générale, la plupart des personnes se préoccupent davantage des risques immédiats liés à l’intelligence artificielle que d’un avenir spéculatif dans lequel l’IA menacerait l’humanité. Comme le montre une nouvelle étude de l’Université de Zurich, les personnes interrogées font clairement la distinction entre les scénarios abstraits et les problèmes concrets - et prennent ces derniers particulièrement au sérieux

Il existe un large consensus sur le fait que l’intelligence artificielle comporte des risques, mais il y a des différences dans la compréhension et la hiérarchisation de ces risques. Une vision répandue met l’accent sur les risques spéculatifs à long terme - comme le fait que l’IA menace potentiellement la survie de l’humanité. Une autre se concentre sur des préoccupations plus immédiates, comme la manière dont les systèmes d’IA renforcent les préjugés sociaux ou contribuent à la désinformation. Certains craignent que l’accent mis sur ces ’risques existentiels’ dramatiques ne détourne l’attention des problèmes plus urgents et réels que l’IA pose déjà aujourd’hui

Afin d’examiner ces points de vue, une équipe de politologues de l’Université de Zurich a mené trois expériences en ligne à grande échelle avec plus de 10 000 participants des États-Unis et de Grande-Bretagne. Ceux-ci ont été confrontés à différents titres présentant l’IA comme un risque catastrophique. D’autres ont lu des informations sur des dangers actuels comme la discrimination ou les fausses informations, d’autres encore sur les avantages possibles de l’IA. L’objectif était d’examiner si les avertissements d’une catastrophe lointaine due à l’IA réduisaient l’attention portée aux problèmes réels et actuels

’Nos résultats montrent que les personnes interrogées sont nettement plus préoccupées par les risques actuels de l’IA que par d’éventuelles catastrophes futures’, explique Fabrizio Gilardi, professeur à l’Institut de sciences politiques de l’UZH. Même si les textes sur les menaces existentielles renforçaient la peur de tels scénarios, l’inquiétude concernant les problèmes actuels restait bien plus élevée. Il s’agit par exemple de biais systématiques dans les décisions d’IA ou de la perte d’emplois. L’étude montre également que les gens peuvent faire la différence entre les dangers spéculatifs et les problèmes concrets - et qu’ils prennent les deux au sérieux

L’étude comble ainsi une importante lacune dans les connaissances. Dans le débat public, on craint souvent que la focalisation sur des scénarios d’avenir spectaculaires détourne l’attention des problèmes actuels urgents. L’étude fournit pour la première fois des données systématiques qui montrent : La conscience des dangers réels reste intacte même lorsque les gens sont confrontés à des avertissements apocalyptiques. notre étude montre que la discussion sur les risques à long terme ne se fait pas automatiquement au détriment de l’attention portée aux problèmes actuels", explique Emma Hoes, co-auteur de l’étude. Fabrizio Gilardi ajoute : ’Le discours social sur l’IA ne devrait pas être un ’ou bien ou bien’. Il faut une compréhension simultanée des défis immédiats et des défis futurs potentiels’.

Littérature

Emma Hoes, Fabrizio Gilardi. Existential Risk Narratives About Artificial Intelligence Do Not Distract From Immediate Harms. Actes de l’Académie Nationale des Sciences. 14 avril 2025. DOI : 10.1073/pnas.2419055122