« Rétropropagation du gradient » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte — « == Domaine == » par « == en construction == <small>Entrez ici les domaines et catégories...</small> ») |
||
Ligne 1 : | Ligne 1 : | ||
== | == en construction == | ||
<small>Entrez ici les domaines et catégories...</small> | |||
[[category:Vocabulaire]] | [[category:Vocabulaire]] | ||
[[Catégorie:Wikipedia-IA]] [[Catégorie:Termium]] | [[Catégorie:Wikipedia-IA]] [[Catégorie:Termium]] |
Version du 1 juillet 2019 à 10:18
en construction
Entrez ici les domaines et catégories...Intelligence artificielle
Apprentissage automatique
Définition
En statistiques, la rétropropagation du gradient est une méthode pour calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. De façon abusive, on appelle souvent technique de rétropropagation du gradient l'algorithme classique de correction des erreurs basé sur le calcul du gradient grâce à la rétropropagation et c'est cette méthode qui est présentée ici.
En vérité, la correction des erreurs peut se faire selon d'autres méthodes, en particulier le calcul de la dérivée seconde. Cette technique consiste à corriger les erreurs selon l'importance des éléments qui ont justement participé à la réalisation de ces erreurs. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent à engendrer une erreur importante se verront modifiés de manière plus significative que les poids qui ont engendré une erreur marginale.
Français
Rétropropagation du gradient
Anglais
gradient back propagation
NOTA La rétropropagation est habituellement associée à l'apprentissage par correction d'erreur.
NOTA rétropropagation; propagation arrière : termes et définition normalisés par l'ISO/CEI [Commission électrotechnique internationale] en 1999.
Contributeurs: Jacques Barolet, wiki