Une IA plus robuste pour des systèmes plus sûrs et plus fiables

- EN- FR
© 2023 Titouan Veuillet / EPFL
© 2023 Titouan Veuillet / EPFL
© 2023 Titouan Veuillet / EPFL Des scientifiques de l'EPFL ont découvert un problème fondamental dans le cadre de l'entraînement des systèmes d'apprentissage automatique et ont mis au point une nouvelle formulation afin de les renforcer contre les attaques contradictoires. En repensant complètement la manière dont la majorité des systèmes d'intelligence artificielle (IA) se protègent contre les attaques, des chercheurs de la Faculté des sciences et techniques de l'ingénieur de l'EPFL ont mis au point une nouvelle approche d'entraînement. Le but? S'assurer que les modèles d'apprentissage automatique, notamment les réseaux de neurones profonds, fonctionnent toujours comme prévu, améliorant ainsi grandement leur fiabilité. L'approche d'entraînement basée sur la pensée à somme nulle a été remplacée avec succès par un nouveau modèle dont le fonctionnement repose sur une stratégie de résistance aux attaques adaptative pour créer un scénario d'entraînement plus intelligent. Les résultats montrent que ce modèle peut être utilisé pour une grande variété d'activités dépendantes de l'intelligence artificielle pour la classification comme, par exemple, la protection des contenus des services de diffusion vidéo en flux continu, les véhicules autonomes et la surveillance. Les premiers travaux de recherche ont été menés dans le cadre d'une collaboration étroite entre le Laboratory for Information and Inference Systems ( LIONS ) de la Faculté Sciences et Techniques de l'Ingénieur de l'EPFL et des chercheuses et chercheurs de l'université de Pennsylvanie (UPenn).
account creation

UM DIESEN ARTIKEL ZU LESEN, ERSTELLEN SIE IHR KONTO

Und verlängern Sie Ihre Lektüre, kostenlos und unverbindlich.



Ihre Vorteile

  • Zugang zu allen Inhalten
  • Erhalten Sie Newsmails für Neuigkeiten und Jobs
  • Anzeigen veröffentlichen

myScience