Entraînement par antagonisme


Révision datée du 27 septembre 2024 à 10:32 par Pitpitt (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

L'entrainement par antagonisme consiste à entraîner un modèle d'apprentissage automatique en augmentant ses données avec des exemples. Plus précisément, il vise à classer correctement les exemples non modifiés et les exemples contradictoires afin d'améliorer la robustesse de ces derniers et de généraliser la performance des exemples originaux. L'entraînement par antagonisme fournit un moyen de régulariser les algorithmes d'apprentissage supervisés.

Français

entraînement par antagonisme

entraînement contradictoire

Anglais

adversarial training

Adversarial training is the prosses of training a machine learning model by augmenting its data with examples. More precisely, it aims to correctly classify both unmodified examples and adversarial examples to improve robustness of the latest and generalize the performance of original examples. It provides a means of regularizing supervised learning algorithms.

Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018

Source : ICTjournal

Source : arxiv

Contributeurs: Arianne , Jacques Barolet, wiki