« Rétropropagation à travers le temps » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Application de la rétropropagation dans un [[réseau récurrent]] à une séquence de données considérée comme une série temporelle ou une succession de données dans le temps. | Application de la [[rétropropagation]] dans un [[réseau récurrent]] à une séquence de données considérée comme une série temporelle ou une succession de données dans le temps. | ||
== Compléments == | == Compléments == | ||
Rappelons que la rétropropagation est l'idée générale de propager l'erreur de sortie vers l’arrière dans un réseau de neurones afin de mettre à jour les poids (ou paramètres) en fonction des résultats de la sortie afin de minimiser l'erreur entre les valeurs prédites et les vraies valeurs. | Puisque les paramètres d'un [[réseau récurrent]] sont partagés entre toutes les itérations de temps, la [[rétropropagation]] dépend non seulement du temps courant mais aussi des pas de temps précédents. C'est la différence principale entre la [[rétropropagation]] ordinaire et la rétropropagation à travers le temps. | ||
<hr/> | |||
Rappelons que la [[rétropropagation]] est l'idée générale de propager l'erreur de sortie vers l’arrière dans un réseau de neurones afin de mettre à jour les poids (ou paramètres) en fonction des résultats de la sortie afin de minimiser l'erreur entre les valeurs prédites et les vraies valeurs. | |||
== Français == | == Français == |
Version du 1 décembre 2022 à 00:17
Définition
Application de la rétropropagation dans un réseau récurrent à une séquence de données considérée comme une série temporelle ou une succession de données dans le temps.
Compléments
Puisque les paramètres d'un réseau récurrent sont partagés entre toutes les itérations de temps, la rétropropagation dépend non seulement du temps courant mais aussi des pas de temps précédents. C'est la différence principale entre la rétropropagation ordinaire et la rétropropagation à travers le temps.
Rappelons que la rétropropagation est l'idée générale de propager l'erreur de sortie vers l’arrière dans un réseau de neurones afin de mettre à jour les poids (ou paramètres) en fonction des résultats de la sortie afin de minimiser l'erreur entre les valeurs prédites et les vraies valeurs.
Français
rétropropagation à travers le temps
rétropropagation temporelle
Anglais
backpropagation through time
BPTT
Source: Daucé, Emmanuel (2000). Adaptation dynamique et apprentissage dans des réseaux de neurones récurrents aléatoires, École nationale supérieure de l’aéronautique et de l’espace, thèse de doctorat, 256 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki