« Rétropropagation du gradient » : différence entre les versions


m (Remplacement de texte — « <!-- Termium --> » par « Catégorie:Termium »)
Aucun résumé des modifications
 
(16 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
[[category:Vocabulaire]]
<!-- Wikipedia --> [[Catégorie:Termium]]
[[Catégorie:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Apprentissage automatique]]Apprentissage automatique<br>
[[Catégorie:scotty]]
== Définition ==
== Définition ==
En statistiques, la rétropropagation du gradient est une méthode pour calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. De façon abusive, on appelle souvent technique de rétropropagation du gradient l'algorithme classique de correction des erreurs basé sur le calcul du gradient grâce à la rétropropagation et c'est cette méthode qui est présentée ici.  
En statistiques, la rétropropagation du gradient est une méthode pour calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. De façon abusive, on appelle souvent technique de rétropropagation du gradient l'algorithme classique de correction des erreurs basé sur le calcul du gradient grâce à la rétropropagation .
 
En vérité, la correction des erreurs peut se faire selon d'autres méthodes, en particulier le calcul de la dérivée seconde. Cette technique consiste à corriger les erreurs selon l'importance des éléments qui ont justement participé à la réalisation de ces erreurs. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent à engendrer une erreur importante se verront modifiés de manière plus significative que les poids qui ont engendré une erreur marginale.
 


== Français ==
== Français ==
'''Rétropropagation du gradient'''
'''rétropropagation du gradient'''   
   
 


== Anglais ==
== Anglais ==
'''gradient back propagation '''
'''gradient back propagation '''


==Sources==
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RETROPROPAGATION&index=alt&codom2nd_wet=1#resultrecs    Source: TERMIUM Plus  ]


[https://fr.wikipedia.org/wiki/R%C3%A9tropropagation_du_gradient    Source: Wikipedia IA.  ]


NOTA La rétropropagation est habituellement associée à l'apprentissage par correction d'erreur.
Note: '''rétropropagation''' et '''propagation arrière''' sont normalisés par l'ISO/CEI [Commission électrotechnique internationale 1999.]
 
NOTA rétropropagation; propagation arrière : termes et définition normalisés par l'ISO/CEI [Commission électrotechnique internationale] en 1999.
 
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=RETROPROPAGATION&index=alt&codom2nd_wet=1#resultrecs    Source : TERMIUM Plus  ]




[https://fr.wikipedia.org/wiki/R%C3%A9tropropagation_du_gradient    Source : Wikipedia IA  ]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 29 janvier 2024 à 08:55

Définition

En statistiques, la rétropropagation du gradient est une méthode pour calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. De façon abusive, on appelle souvent technique de rétropropagation du gradient l'algorithme classique de correction des erreurs basé sur le calcul du gradient grâce à la rétropropagation .

Français

rétropropagation du gradient

Anglais

gradient back propagation

Sources

Source: TERMIUM Plus

Source: Wikipedia IA.

Note: rétropropagation et propagation arrière sont normalisés par l'ISO/CEI [Commission électrotechnique internationale 1999.]

Contributeurs: Jacques Barolet, wiki