« Taux d'apprentissage » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.  
Facteur multiplicatif appliqué au [[gradient]] afin de faire varier le gain du gradient.  


Note: à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.  
Remarque : à chaque [[itération]], l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.  


Le taux d'apprentissage est un '''[https://datafranca.org/wiki/Hyperparam%C3%A8tre hyperparamètre]'''.
Le taux d'apprentissage est un '''[https://datafranca.org/wiki/Hyperparam%C3%A8tre hyperparamètre]'''.


==Français==
==Français==
'''pas du gradient'''   
'''pas du gradient'''   


Ligne 21 : Ligne 20 :


==Anglais==
==Anglais==
'''learning rate'''
'''learning rate'''


Ligne 30 : Ligne 28 :


==Sources==
==Sources==
Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). ''Les réseaux de neurones artificiels : un apport potentiel aux études marketing'', Recherche et Applications en Marketing, 11(2), pages 63-81.


Source: Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). ''Les réseaux de neurones artificiels : un apport potentiel aux études marketing'', Recherche et Applications en Marketing, 11(2), pages 63-81.
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]       


[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
[[Utilisateur:Claude COULOMBE | Source : Claude Coulombe, Datafranca.org]]        


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary'']


[[Utilisateur:Patrickdrouin  | Source : Termino]]


[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Version du 14 mars 2024 à 13:24

Définition

Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.

Remarque : à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.

Le taux d'apprentissage est un hyperparamètre.

Français

pas du gradient

gain du gradient

pas de gradient

taux d'apprentissage

pas d'apprentissage

taux d'entraînement

Anglais

learning rate

training rate

step size


Sources

Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). Les réseaux de neurones artificiels : un apport potentiel aux études marketing, Recherche et Applications en Marketing, 11(2), pages 63-81.

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Claude Coulombe, Datafranca.org

Source : Google machine learning glossary

Source : Termino