« Taux d'apprentissage » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 19 : | Ligne 19 : | ||
==Français== | ==Français== | ||
'''pas du gradient''' n.m. | '''pas du gradient''' n.m. | ||
'''gain du gradient''' n.m | |||
'''pas de gradient''' n.m. | '''pas de gradient''' n.m. | ||
Ligne 32 : | Ligne 33 : | ||
<br /> | <br /> | ||
Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). Les réseaux de neurones artificiels : un apport potentiel aux études marketing, Recherche et Applications en Marketing, 11(2), pages 63-81. | |||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | |||
Source : Claude Coulombe | |||
Version du 10 juin 2019 à 19:12
Domaine
Intelligence artificielle
Apprentissage profond
Définition
Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.
Note: à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.
Le taux d'apprentissage est un hyperparamètre.
Français
pas du gradient n.m.
gain du gradient n.m
pas de gradient n.m.
taux d'apprentissage n.m.
pas d'apprentissage n.m.
taux d'entraînement n.m.
Source : Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). Les réseaux de neurones artificiels : un apport potentiel aux études marketing, Recherche et Applications en Marketing, 11(2), pages 63-81.
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source : Claude Coulombe
Anglais
learning rate
training rate
step size
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche