« Rétropropagation » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 8 : Ligne 8 :


Une première technique consiste à modifier le poids de l'entrée en signe inverse de l'erreur en sortie. Une mauvaises réponse en sortie implique une réduction du poids de l'entrée. Une bonne réponse en sortie implique une augmentation du poids de l'entrée. Un raffinement de cette approche consiste à corriger la pondération proportionnellement à l'importance de l'erreur. C'est-à-dire que plus l'erreur est grande, ce qui correspond à une plus grande différence entre la valeur cible (ou valeur vraie) et la prédiction, plus la correction est importante.  
Une première technique consiste à modifier le poids de l'entrée en signe inverse de l'erreur en sortie. Une mauvaises réponse en sortie implique une réduction du poids de l'entrée. Une bonne réponse en sortie implique une augmentation du poids de l'entrée. Un raffinement de cette approche consiste à corriger la pondération proportionnellement à l'importance de l'erreur. C'est-à-dire que plus l'erreur est grande, ce qui correspond à une plus grande différence entre la valeur cible (ou valeur vraie) et la prédiction, plus la correction est importante.  
Voir '''[[Rétropropagation du gradient|rétropropagation du gradient]]'''


==Français==
==Français==

Version du 15 août 2022 à 01:18

Définition

La rétropropagation est une méthode qui permet aux réseaux de neurones artificiels d’apprendre. Plus précisément, la rétropropagation des erreurs est au cœur de l'algorithme d’optimisation permettant à un réseau de neurones d’apprendre à partir de ses erreurs.

L'idée générale est de propager l'erreur de la sortie vers l’entrée du réseau de neurones afin d'ajuster les poids (ou paramètres) du réseau et d’ainsi minimiser petit à petit l’erreur de sortie.

Compléments

On soumet des données à un réseau de neurones et on lui indique ses bonnes et ses mauvaises réponses. Cette méthode permet d’augmenter le poids relatif des neurones correspondant aux bonnes réponses ou de réduire le poids relatif des neurones correspondant aux mauvaises réponses.

Une première technique consiste à modifier le poids de l'entrée en signe inverse de l'erreur en sortie. Une mauvaises réponse en sortie implique une réduction du poids de l'entrée. Une bonne réponse en sortie implique une augmentation du poids de l'entrée. Un raffinement de cette approche consiste à corriger la pondération proportionnellement à l'importance de l'erreur. C'est-à-dire que plus l'erreur est grande, ce qui correspond à une plus grande différence entre la valeur cible (ou valeur vraie) et la prédiction, plus la correction est importante.

Voir rétropropagation du gradient

Français

rétropropagation

rétropropagation des erreurs

rétropropagation de l'erreur

rétropropagation d'erreurs

rétropropagation des erreurs

Anglais

backpropagation

error backpropagation

error feedback propagation

feedback propagation

Source: Lavery.ca.

Source: Google, Machine learning glossary.