« Taux d'apprentissage » : différence entre les versions
(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... ») |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(37 versions intermédiaires par 5 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
== | Facteur multiplicatif appliqué au [[gradient]] afin de faire varier le gain du gradient. | ||
[[ | |||
Remarque : à chaque [[itération]], l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient. | |||
Le taux d'apprentissage est un [[hyperparamètre]]. | |||
==Français== | |||
'''pas du gradient''' | |||
'''gain du gradient''' | |||
'''pas de gradient''' | |||
'''taux d'apprentissage''' | |||
=== | '''pas d'apprentissage''' | ||
'''taux d'entraînement''' | |||
==Anglais== | |||
[https://developers.google.com/machine-learning/glossary/ | '''learning rate''' | ||
'''training rate''' | |||
'''step size''' | |||
==Sources== | |||
Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). ''Les réseaux de neurones artificiels : un apport potentiel aux études marketing'', Recherche et Applications en Marketing, 11(2), pages 63-81. | |||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | |||
[[Utilisateur:Claude COULOMBE | Source : Claude Coulombe, Datafranca.org]] | |||
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary''] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Intelligence artificielle]] | |||
[[Category:Apprentissage profond]] |
Dernière version du 11 octobre 2024 à 08:33
Définition
Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.
Remarque : à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.
Le taux d'apprentissage est un hyperparamètre.
Français
pas du gradient
gain du gradient
pas de gradient
taux d'apprentissage
pas d'apprentissage
taux d'entraînement
Anglais
learning rate
training rate
step size
Sources
Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). Les réseaux de neurones artificiels : un apport potentiel aux études marketing, Recherche et Applications en Marketing, 11(2), pages 63-81.
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source : Claude Coulombe, Datafranca.org
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche