Robert West, professeur à l’EPFL, et Ágnes Horvát, professeure invitée, expliquent comment l’essor de l’IA transforme la diffusion et la production des connaissances scientifiques.
Aujourd’hui, le partage des recherches en ligne est devenu une pratique courante dans le monde académique. Le grand public, les journalistes et les responsables politiques s’appuient de plus en plus sur les médias numériques comme principale source d’information scientifique.
Dans un contexte où la science est souvent mal comprise, politisée ou présentée de manière sensationnaliste, comment les chercheuses et chercheurs valorisent-ils au mieux leur travail et comment l’essor de l’IA transforme-t-il la diffusion et la production des connaissances scientifiques?
Robert West, professeur associé et responsable du Laboratoire de science des données à l’EPFL, et Ágnes Horvát, professeure associée de communication et d’informatique au Laboratoire LINK (Lab on Innovation, Networks, and Knowledge) à l’Université Northwestern, ont accepté de discuter de la communication scientifique à l’ère numérique.
Vous vous intéressez de plus en plus à la manière dont la science est transmise dans les espaces en ligne. Qu’observez-vous?
Ágnes Horvát: Nous nous penchons sur la manière dont l’information se perd au cours de ce processus et comment la désinformation s’insinue. L’une des choses qui nous préoccupe beaucoup est la façon dont le contenu scientifique est sensationnalisé et exagéré à bien des égards. Un autre problème majeur est la désinformation, qui touche l’ensemble de notre écosystème d’actualités et d’information. Enfin, nous voyons de plus en plus l’IA envahir cet espace.
Aujourd’hui, la majeure partie des gens s’informe sur les réseaux sociaux et les plateformes vidéo. Il semble donc essentiel d’utiliser ces canaux pour diffuser les avancées scientifiques. Mais ces plateformes fonctionnent aussi largement grâce au clickbait, principal levier pour capter l’attention. Est-ce que cela n’est pas à double tranchant?
Ágnes Horvát: C’est une excellente question. Nous pouvons montrer sur une période de sept ans que la présence des scientifiques sur les réseaux sociaux apporte un gain tangible en termes de citations, lesquelles constituent traditionnellement l’un des principaux indicateurs de la réussite scientifique. Il est intéressant de noter que le gain a tendance à baisser au fil des années, ce à quoi il faut réfléchir. Deux défis majeurs dans l’utilisation des réseaux sociaux pour communiquer sur les progrès scientifiques sont la compression extrême du contenu et le nouveau contexte de l’IA. Nous nous sommes penchés sur la question, en nous concentrant sur l’évolution des résumés en sciences biomédicales en 2024 par rapport à avant, et nous avons trouvé des traces évidentes de LLM. Nous avons identifié près de 500 mots qui révèlent l’utilisation de LLM et nous pouvons affirmer qu’au moins 13% des articles ont été modifiés par des LLM.
Bob West: Ce qui est amusant, car ce nombre est à peu près celui que nous avons trouvé pour les comptes rendus d’articles rédigés par des LLM également. Cette analyse a été menée dans le cadre de l’International Conference on Learning Representations 2024, et montre qu’au moins 16 % des comptes rendus ont été rédigés avec l’aide de LLM. Cette situation fait émerger une situation un peu absurde, dans laquelle des systèmes d’IA contribuent à la rédaction d’articles qu’ils sont ensuite amenés à évaluer, tandis que des lecteurs sollicitent à leur tour des résumés générés par l’IA de ces mêmes travaux.
Ágnes Horvát: Le plus triste selon moi, c’est que nous accueillons si favorablement ces outils qu’il y a sûrement une sorte d’homogénéisation des idées que nous n’avons pas encore réussi à quantifier. Je m’inquiète également du fait qu’ils aient tendance à privilégier la certitude, parce qu’ils doivent simplement donner une réponse. Selon moi, c’est un problème lorsque les résumés, les articles de recherche ou les comptes rendus donnés par l’IA semblent plus sûrs qu’ils ne le devraient. Sans oublier que la communication scientifique ne porte pas seulement sur les faits, mais aussi sur la façon de les présenter, ce qui influe sur les idées qui paraissent attrayantes et sur le type de recherche qui en découlera. En cédant une partie de cette capacité d’action aux LLM, nous renonçons dans une certaine mesure à ces choix sans en connaître les conséquences.
Bob West: Mais ce n’est pas si clair, ça peut aller dans les deux sens. La base de référence est faible parce que bon nombre d’articles rédigés par les êtres humains sont mal écrits, même s’ils ont de bonnes idées. Il s’agit donc d’un exemple où l’IA pourrait en fait être un égaliseur, plutôt qu’un catalyseur des inégalités.
Il y avait un problème de désinformation bien avant l’IA. Sur les plateformes de réseaux sociaux, il y a très peu de modération et les fausses informations se propagent très rapidement. L’IA contribue-t-elle à cette désinformation?
Ágnes Horvát: L’ensemble du système est vulnérable, car une grande partie des contenus diffusés sur les réseaux sociaux est issue de sources tierces dont la provenance est inconnue. Le seul mécanisme clair est que l’IA peut produire plus rapidement n’importe quel type de contenu et que, s’il y a plus de robots qui produisent de fausses informations, celles-ci se propagent plus rapidement.
Bob West: Ce que nous savons, c’est que l’IA est très persuasive. Quand vous lui demandez de prendre position et de défendre cette position, elle peut le faire à un niveau qui est en quelque sorte surhumain. De ce fait, nous avons maintenant une machine de propagande parfaite et gratuite. Auparavant, ce type de travail nécessitait le recours à des consultantes et consultants en communication, impliquant des coûts financiers importants. Les chiffres que nous calculons à l’aide d’outils de détection IA sous-estiment généralement largement ce qui se passe réellement.
Si vous aviez tous les deux une boule de cristal et que vous pouviez regarder vers la fin de la décennie, comment verriez-vous ce défi de la communication scientifique évoluer, à la fois d’un point de vue scientifique et d’un point de vue grand public?
Ágnes Horvát: Actuellement, toutes les discussions portent sur la manière dont nous présentons des idées qui ont été étudiées par des personnes avec l’IA. Peut-être que l’IA a aidé à rédiger le travail, peut-être qu’elle a aidé avec le code, peut-être qu’elle a aidé avec la collecte de données, la revue de la littérature, etc. Selon moi, la prochaine étape consiste à ce que les systèmes d’IA contribuent à l’identification des sujets de recherche eux-mêmes. Un horizon d’environ cinq ans peut être raisonnablement envisagé. C’est un domaine très différent parce que l’IA fournit alors l’hypothèse qui doit être étudiée. C’est un nouveau problème qui est bien plus compliqué que tout ce que nous avons vu jusqu’à présent.
Bob West: Exactement. Je conviens que ce scénario semble très réaliste. D’ici cinq ans, nous aurons une IA capable de faire de la science. Serons-nous même en mesure de suivre la science faite par l’IA à ce moment-là? C’est l’une des raisons pour lesquelles nous nous tournons vers les réseaux sociaux pour la science, parce que c’est aussi une sorte de filtre. Que devrions-nous regarder? Quelles sont les tendances? L’IA n’a pas ce problème parce qu’elle peut juste lire tous les articles.
Si l’IA propose des hypothèses et pose des questions, formule-t-elle les bonnes?
Ágnes Horvát: En tant qu’êtres humains, nous avons jusqu’à présent considéré comme essentiel de conserver une capacité de décision quant aux sujets étudiés. Je ne sais pas comment l’IA pourraient appréhender des valeurs liées à ce qui est jugé prioritaire ou souhaitable pour l’avenir en termes de recherche scientifique.
Bob West: Et l’IA se préoccupe-t-elle de ce qui est important pour l’avenir de l’humanité en premier lieu? L’une des choses les plus difficiles en science est de savoir quelles questions poser et j’ai souvent beaucoup de mal avec cela. Pourquoi faisons-nous cela? Que faut-il faire ensuite? Donc, je pense que la question n’est pas de savoir si une IA peut le faire parfaitement, mais si elle peut le faire mieux que nous. Je ne suis pas si pessimiste dans le sens où l’IA en est incapable. Ce qui pourrait être pessimiste à un niveau supérieur: si en apparence elle le fait mieux que nous mais qu’elle se contrefiche de savoir si cela compte pour un avenir meilleur de l’humanité? Dans cinq ans, on en reparlera!
Est-ce que l’IA se préoccupe de ce qui est important pour l’avenir de l’humanité? L’un des défis majeurs de la recherche scientifique est de savoir quelles questions poser et j’ai souvent beaucoup de mal avec cela. Pourquoi étudions-nous cela? Que faut-il faire ensuite? Dans ce contexte, la question n’est pas tant de savoir si une IA peut accomplir cette tâche de manière parfaite, mais plutôt si elle peut le faire mieux que nous. Mon approche n’est pas pessimiste en ce qui concerne la capacité de l’IA. Ce qui pourrait poser problème, à un niveau plus fondamental, serait qu’elle fasse cela mieux que nous en apparence, mais qu’elle se contrefiche de savoir si cela compte pour un avenir meilleur de l’humanité. On en reparle dans cinq ans!



