Rétropropagation du gradient


Révision datée du 1 février 2021 à 21:27 par Pitpitt (discussion | contributions) (Remplacement de texte — « <small> féminin </small> » par «  »)
La version imprimable n’est plus prise en charge et peut comporter des erreurs de génération. Veuillez mettre à jour les signets de votre navigateur et utiliser à la place la fonction d’impression par défaut de celui-ci.

Définition

En statistiques, la rétropropagation du gradient est une méthode pour calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. De façon abusive, on appelle souvent technique de rétropropagation du gradient l'algorithme classique de correction des erreurs basé sur le calcul du gradient grâce à la rétropropagation .

Français

rétropropagation du gradient

Anglais

gradient back propagation


Source: TERMIUM Plus

Source: Wikipedia IA.

Note: rétropropagation et propagation arrière sont normalisés par l'ISO/CEI [Commission électrotechnique internationale 1999.]



Contributeurs: Jacques Barolet, wiki