« Règle delta généralisée » : différence entre les versions


(Page créée avec « == en construction == Catégorie:Vocabulary Catégorie:Apprentissage machine Catégorie:UNSW == Définition == xxxxxxx == Français == xxxxxxx == Anglais... »)
Balise : Éditeur de wikicode 2017
 
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Définition ==
La règle delta généralisée est une formule dérivée mathématiquement utilisée pour déterminer comment mettre à jour un réseau de neurones au cours d'une étape de formation (rétropropagation).
La règle delta généralisée est utilisée à plusieurs reprises au cours de la formation pour modifier les poids entre les connexions de nœuds. Avant l'entraînement, le réseau a des poids de connexion initialisés avec de petits nombres aléatoires. 


== en construction ==
Le but des modifications de poids est de réduire l'erreur globale du réseau, ce qui signifie de réduire la différence entre la sortie réelle et attendue.
[[Catégorie:Vocabulary]]
[[Catégorie:Apprentissage machine]]
[[Catégorie:UNSW]]
 
 
== Définition ==
xxxxxxx


== Français ==
== Français ==
xxxxxxx
'''Règle delta généralisée''' <small> loc. nom. fém. </small>
   
   
== Anglais ==
== Anglais ==
'''generalized delta rule'''
'''Generalized delta rule'''
An improvement on the in error backpropagation learning. If the learning rate (often denoted by η) is small, the backprop algorithm proceeds slowly, but accurately follows the path of steepest descent on the error surface. If η is too large, the algorithm may "bounce off the canyon walls of the error surface" - i.e. not work well. This can be largely avoided by modifying the delta rule to include a momentum term:


Δ''w<sub>ji</sub>''(''n'') = α Δ''w<sub>ji</sub>''(''n''–1) + η δ<sub>''j''</sub>(''n'') ''y<sub>i</sub>''(''n'')
<small>


in the notation of Haykin's text (''Neural networks - a comprehensive foundation''). The constant α is a termed the momentum constant and can be adjusted to achieve the best effect. The second summand corresponds to the standard delta rule, while the first summand says "add α × the previous change to this weight."
[https://deepai.org/machine-learning-glossary-and-terms/generalized-delta-rule Source : DeepAI]
 
This new rule is called the generalized delta rule. The effect is that if the basic delta rule would be consistently pushing a weight in the same direction, then it gradually gathers "momentum" in that direction.


[http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html      Source : INWS machine learning dictionary]  ]


<small>


[http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html      Source : INWS machine learning dictionary] ]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Scotty2]]

Version du 20 mai 2020 à 08:35

Définition

La règle delta généralisée est une formule dérivée mathématiquement utilisée pour déterminer comment mettre à jour un réseau de neurones au cours d'une étape de formation (rétropropagation). La règle delta généralisée est utilisée à plusieurs reprises au cours de la formation pour modifier les poids entre les connexions de nœuds. Avant l'entraînement, le réseau a des poids de connexion initialisés avec de petits nombres aléatoires.

Le but des modifications de poids est de réduire l'erreur globale du réseau, ce qui signifie de réduire la différence entre la sortie réelle et attendue.

Français

Règle delta généralisée loc. nom. fém.

Anglais

Generalized delta rule

Source : DeepAI

Source : INWS machine learning dictionary ]

Contributeurs: Imane Meziani, wiki