Taxonomie des attaques sur les méthodes d'apprentissage automatique - Equipe de Recherche en Ingénierie des Connaissances Accéder directement au contenu
Article Dans Une Revue Revue des Nouvelles Technologies de l'Information Année : 2022

Taxonomie des attaques sur les méthodes d'apprentissage automatique

Résumé

L'apprentissage automatique gagne de plus en plus de terrains d'applications. Différentes méthodes existent et qui permettent la construction de modèles à des fins d'aide à la décision. Néanmoins, les modèles d'apprentissage automatique sont vulnérables et exposés à différents types d'attaques de sécurité durant le processus d'apprentissage des modèles et après leur déploiement. Par conséquent, ces menaces doivent être, dans un premier temps, identifiées, définies et classées afin que, dans un deuxième temps, proposer des mesures de défense pour faire face à ces menaces. Dans cet article, Nous nous sommes intéressés à l'étude des menaces pouvant toucher un processus d'apprentissage automatique. Nous présentons une classification des menaces autour de l'objectif, la connaissance et la capacité de l'attaquant. Ensuite, nous montrons quelques exemples d'attaques sur des applications utilisant l'apprentissage automatique.
Fichier principal
Vignette du fichier
main.pdf (211.21 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03907887 , version 1 (20-12-2022)

Identifiants

  • HAL Id : hal-03907887 , version 1

Citer

Tom Djaaleb, Mohamed-Lamine Messai. Taxonomie des attaques sur les méthodes d'apprentissage automatique. Revue des Nouvelles Technologies de l'Information, 2022. ⟨hal-03907887⟩
23 Consultations
131 Téléchargements

Partager

Gmail Facebook X LinkedIn More