L’aube d’une intelligence artificielle fiable et coopérative

- EN- DE- FR
Niao He envisage une intelligence artificielle digne de confiance et coopérative
Niao He envisage une intelligence artificielle digne de confiance et coopérative, qui n’agit pas en concurrence avec les humains, mais qui collabore avec eux et les aide à prendre des décisions intelligentes et transparentes.

Assistons-nous à l’émergence d’une autre intelligence artificielle (IA), adaptable, capable de collaborer avec les humains et de les aider à prendre des décisions intelligentes ? L’informaticienne Niao He examine comment sécuriser théoriquement une telle IA pour qu’elle soit réellement utile.

En tant que chercheuse, Niao He s’intéresse à l’homme et à la technologie. Sa conférence inaugurale en a été le signe, lorsqu’elle a esquissé en quelques mots l’impact des logiciels informatiques capables d’apprendre sur notre vie quotidienne : "Nous sommes à l’aube d’une nouvelle ère de l’intelligence artificielle et nous sommes tous stupéfaits de ce que l’IA accomplit déjà aujourd’hui et de la manière dont elle change déjà notre quotidien". Dans son exposé, la professeure d’informatique de l’Institut d’apprentissage automatique a comparé l’état actuel de développement de l’intelligence artificielle à l’aube, lorsque le jour qui se lève promet de grandes choses et que nous sentons que beaucoup de travail nous attend encore.

L’image de l’aube reflète à elle seule l’ascension fulgurante qu’ont connue la recherche et le développement dans le domaine de l’apprentissage automatique et de l’intelligence artificielle au cours des dernières années. Les nouvelles connaissances mathématiques et algorithmiques, l’augmentation considérable des performances du matériel, les modules logiciels d’IA disponibles gratuitement et les énormes quantités de données permettant d’entraîner l’intelligence artificielle ont fait exploser les possibilités d’application de l’IA.

Aujourd’hui, les ordinateurs sont capables d’apprendre de manière automatique grâce à des méthodes statistiques et basées sur les données. Ils complètent les connaissances humaines en extrayant automatiquement des modèles et des régularités d’énormes ensembles de données trop complexes et trop volumineux pour les humains. L’IA peut par exemple découvrir de cette manière de nouvelles structures de protéines et contribuer ainsi au développement de nouveaux médicaments. Niao He souhaite aller plus loin et développer une IA capable de faire plus que de reconnaître des modèles. En accord avec les valeurs de l’ETH AI Center , dont elle fait partie de l’équipe principale, elle envisage une intelligence artificielle digne de confiance et coopérative, qui ne travaille pas en concurrence avec les humains, mais avec eux et les aide à prendre des décisions intelligentes et compréhensibles.

L’IA comme accompagnatrice et conseillère

L’objectif à long terme de ses recherches est une IA capable de s’adapter, comme l’être humain lui-même, rapidement et de manière flexible aux conditions environnementales changeantes et d’accompagner l’être humain dans des décisions inhabituellement difficiles, comme une conseillère. Niao He s’inspire également de sa propre expérience de vie : Après avoir obtenu un bachelor en Chine, elle a étudié et fait de la recherche pendant dix ans en Géorgie et dans l’Illinois (États-Unis) avant de venir en Suisse en 2020. À chaque déménagement, elle s’est adaptée à une autre culture et a acquis de nouvelles compétences - elle a par exemple appris à conduire dans l’Illinois et à parler allemand à Zurich. "Lorsque je rencontrais un environnement totalement nouveau, je souhaitais souvent qu’une IA m’aide à prendre les meilleures décisions possibles".

Les recherches de Niao He portent sur l’optimisation, l’automatisation et la prise de décision intelligente dans les organisations : son groupe étudie les principes qui permettent de concevoir des algorithmes - des règles de calcul sur la base desquelles des logiciels intelligents sont programmés - de manière mathématiquement suffisamment solide pour que l’IA fonctionne à tout moment de manière fiable et permette de résoudre des problèmes à partir de données et de prendre des décisions intelligentes. Pour que l’IA complète réellement le travail de l’homme au lieu de le remplacer, l’équipe de Hes recherche de nouvelles approches de l’IA et des méthodes alternatives d’apprentissage automatique. "Aujourd’hui, nous développons presque couramment des programmes intelligents pour résoudre des problèmes réels d’une complexité extrême avec d’énormes quantités de données", explique-t-elle.

Apprendre à gérer l’incertitude et l’inconnu

En effet, la plupart des procédés d’IA améliorent aujourd’hui la qualité de leurs résultats en apprenant ce qui fonctionne à partir de grands ensembles de données d’entraînement, ce qui augmente leur fiabilité. "Dans le quotidien de l’entreprise, les problèmes que l’IA est censée résoudre sont toutefois soumis à de nombreuses incertitudes", fait remarquer Niao He. Ces incertitudes peuvent être de nature technique ou humaine. Elles peuvent concerner aussi bien les données et leur sécurité que l’utilisation de plateformes partagées ou les erreurs systématiques commises par les humains ("human bias" en anglais).

"Pour que l’intelligence artificielle fonctionne de manière fiable dans des conditions d’incertitude et de changement, il est important que nous formulions mathématiquement les incertitudes et que nous les intégrions dans nos algorithmes d’apprentissage. C’est ce à quoi nous travaillons", explique Niao He, "nous avons besoin de systèmes d’IA qui prennent des décisions non contradictoires au fil du temps ; qui apprennent à gérer les incertitudes ou les environnements inconnus et qui peuvent s’adapter à de nouvelles tâches". Une approche prometteuse qui pourrait conduire à une IA capable de s’adapter est l’"apprentissage par renforcement" (en anglais "reinforcement learning"). Dans ce cas, un processus d’apprentissage intelligent augmente la fiabilité de ses résultats grâce à une interaction répétée avec l’environnement. L’équipe de Niao Hes étend cette approche aux cas où les données sont rares ou où l’expérience humaine fait défaut.

La fiabilité dans le temps crée la confiance

Pour Niao He, il est clair que "l’IA doit être -centrée sur l’humain-, c’est-à-dire qu’elle doit être centrée sur l’humain, exprimer nos valeurs et fonctionner en toute confiance". Elle partage l’avis selon lequel des valeurs telles que la fiabilité, la transparence, la protection des données, l’équité, l’éthique, la responsabilité et la responsabilité devraient servir de principes directeurs pour l’utilisation de l’IA dans la pratique. "Une IA digne de confiance fonctionne de manière fiable sur une longue période. La fiabilité dans le temps crée la confiance", explique-t-elle.

"Il me semble malheureusement que l’image d’une IA digne de confiance manque trop souvent d’aspects théoriques de l’IA".

La théorie lui tient à c½ur. Elle est consciente que le discours sur la fiabilité est ambigu : "L’IA digne de confiance est un mot très magique pour moi, car il a été surchargé de nombreuses significations. Pour moi, la fiabilité est une question de méthodologie". Elle ajoute résolument : "Nous devrions développer l’IA dès le départ de manière à ce qu’elle soit mathématiquement irréprochable et théoriquement validée avant d’être utilisée dans la pratique. Il me semble malheureusement que les aspects théoriques de l’IA manquent trop souvent dans l’image de l’IA digne de confiance".

Connaître les limites, augmenter la diversité

Étant donné qu’il est aujourd’hui relativement facile pour les concepteurs informatiques et les programmeurs d’essayer quelque chose sur les plateformes d’IA, il y a de temps en temps dans la pratique des algorithmes qui donnent des résultats très plausibles, mais pour lesquels, lorsqu’une erreur se produit, on ne sait pas pourquoi elle est apparue. "Théorie" signifie pour Niao He que les bases mathématiques et algorithmiques de l’IA sont suffisamment comprises pour qu’il soit possible d’expliquer à tout moment comment un algorithme fonctionne réellement et comment ses résultats sont obtenus. "Dans la compréhension théorique, il s’agit aussi et surtout de comprendre les limites fondamentales de ces problèmes et les limites fondamentales des algorithmes".

Développer l’IA en fonction de l’humain nécessite de penser en termes de contrefactuel, explique Niao He. Que se serait-il passé si j’avais pris une décision différente ou si quelqu’un d’un autre sexe ou d’un autre groupe ethnique avait décidé à ma place ? La diversité est importante pour la recherche en IA : "Lorsqu’il s’agit d’équité, de confiance et de collaboration avec l’IA, il est très important que différentes personnes apportent leurs perspectives au développement de l’IA. C’est pourquoi j’aimerais encourager toutes les étudiantes à participer à la recherche sur l’IA, afin que l’IA fonctionne à l’avenir de manière coopérative, éthique, équitable et digne de confiance".