Une étude publiée par le Centre International pour la Gouvernance des Risques à l’EPFL dresse un état des lieux complet des risques associés au Deepfake, à cette application du machine learning, et des potentielles réponses pouvant y être apportées. L’objectif: avoir toutes les cartes en main pour prévenir ses dangers.
Il y a quelques semaines, la fausse vidéo hyperréaliste de Donald Trump annonçant l’éradication du sida , réalisée dans le cadre d’une campagne de sensibilisation menée par Solidarité Sida, faisait le buzz. Derrière ce montage, on retrouve le deepfake, technique qui s’appuie sur le machine learning pour fabriquer du contenu digital de plus en plus réaliste tel que des images, des vidéos ou encore des fichiers audio et des textes.
L’utilisation de ces trucages par une association de bienfaisance souligne l’ampleur nouvelle de ce phénomène. Bien que les vidéos à caractère pornographique représentent la majorité du contenu deepfake, cette technique est aussi utilisée à des fins frauduleuses, pour la divulgation de fake news ou pour l’usurpation d’identité.
Des menaces qui évoluent
Compte tenu de la démocratisation du phénomène, le Centre International pour la Gouvernance des Risques à l’EPFL a rassemblé en septembre dernier une trentaine de professionnels lors d’un workshop interdisciplinaire dédié à cette thématique. Il publie aujourd’hui un rapport qui pourra servir de base pour mieux comprendre et appréhender les risques liés au deepfake.
La première observation: il existe une infinité de domaines pouvant être touchés par ces risques. «Toute organisation ou activité qui repose sur des preuves documentaires est potentiellement vulnérable», souligne Aengus Collins, adjoint au directeur de l’IRGC et auteur de la publication. Le deepfake peut entraîner des incertitudes en matière d’information, à l’image d’un transfert d’argent frauduleux déclenché par une voix synthétisée imitant le directeur général d’une entreprise. A l’échelle d’une société, une prolifération de contenu fabriqué pourrait contribuer à l’érosion de la confiance et de la vérité, bases mêmes du débat démocratique.
Le rapport propose donc une classification des risques selon leur impact - atteinte à la réputation, fraude financière et extorsion de fonds ou manipulation des processus décisionnels - et met en évidence le fait que ces impacts peuvent être ressentis au niveau individuel, institutionnel ou sociétal.
Mais comment juger si une réponse au niveau de la gouvernance des risques est nécessaire? Les experts suggèrent de se pencher sur la gravité et l’ampleur du dommage causé ainsi que la capacité de la «cible» à faire face à ce dommage. Par exemple, une entreprise avec des ressources et des procédés en place aura plus de capacités pour absorber les impacts du deepfake qu’un individu victime de harcèlement.
A travers 15 recommandations, l’IRGC veut proposer une variété de réponses qui pourraient atténuer les risques associés aux deepfakes. Ce rapport appelle également à des recherches plus approfondies sur tous les aspects de la question.
Une des pistes évoquées dans le rapport est de répondre par la technologie. A l’EPFL, le Groupe de traitement du signal multimédia et la start-up Quantum Integrity travaillent sur un logiciel de détection des deepfakes , qui pourrait voir le jour en 2020. «Il y aura toujours des vulnérabilités qui pourront être exploitées, mais il est crucial de maintenir et développer des réponses technologiques pour limiter les utilisations malveillantes», ajoute Aengus Collins.
Le rapport souligne également la nécessité de mettre davantage l’accent sur le statut juridique des deepfakes, afin de clarifier comment les lois dans des domaines tels que la diffamation, le harcèlement ou le droit d’auteur s’appliquent à ce contenu.
Plus globalement, l’éducation digitale a aussi son rôle à jouer. «Si l’un des objectifs de l’éducation digitale est d’apprendre à ne pas prendre le contenu numérique pour argent comptant, il faut aussi donner aux gens les moyens d’agir et mettre l’accent sur des aspects tels que la corroboration ou la vérification des sources», précise le chercheur. «Autrement, on court le risque d’accentuer les problèmes liés à l’érosion de la vérité et de la confiance».
Si ce rapport se concentre sur le deepfake, cette recherche s’inscrit dans un axe de travail plus large sur les risques associés aux technologies émergentes, qui se poursuivra en 2020. «Nous sommes en train de décider quelle sera notre prochaine priorité», indique Aengus Collins. «Les candidats ne manquent pas. Nous vivons à une époque où la relation entre la technologie, le risque et la politique publique est plus importante que jamais.»
Références
Forged Authenticity - Governing Deepfake Risks