Des chercheurs de Data61,
une unité spécialisée dans les données numérique de l'agence scientifique
nationale australienne, ont mis au point une technique novatrice pour
efficacement «vacciner» les algorithmes d'apprentissage automatique contre des
attaques.
A partir de données ces types
de codes «apprennent» à créer des algorithmes capables à efficacement exécuter
des tâches sans beaucoup d'instructions spécifiques, telles que la classification
d’images ou courrielles. Elle est déjà largement utilisées pour par exemple
identifier des spams, diagnostiquer des maladies à partir d’images
radiographiques, prévoir les rendements de cultures et bientôt elles seront aussi
dans nos voitures.
Bien que la technologie
ait un potentiel énorme dans la transformation de notre monde, l'intelligence
artificielle et l'apprentissage automatique sont vulnérables aux attaques malveillantes
avec le but de tromper les modèles.
Une technique d’attaque
consiste à interférer des images dans les bases à donnés avec une couche de
bruit. Parce que ces bases de données sont énormes, elle est difficile à
détecter les images affectées autrement que par des résultats erronés.
Des telles attaques se
sont révélées capables à tromper un modèle d'apprentissage automatique en par
exemple identifiant un feu d'arrêt comme un panneau de vitesse, ce qui pourrait
avoir des effets désastreux.
Pour contrarier ces types
d’attaques les chercheurs introduisaient des images légèrement interférés pour
créer un ensemble de données d'entraînement un peu plus difficile. Lorsque
l'algorithme est entraîné sur des données avec une petite dose de distorsions,
les modèles crées automatiquement devient plus robuste et immunisé contre les
attaques sur les images.
La technique ressemble
beaucoup aux vaccinations humaines. En introduisant un petit malaise,
l’algorithme devient capable à se défendre contre un plus gros malaise du même
type.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.