« Taux d'apprentissage » : différence entre les versions


mAucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — « <small> masculin </small> » par «  »)
(22 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Apprentissage profond2]]
[[Category:scotty2]]
[[Category:Vocabulaire]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Apprentissage profond]]Apprentissage profond<br>
[[Category:Termino 2019]]
[[Category:SCOTTY]]


<br />
Note: à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.


== Définition ==
Le taux d'apprentissage est un '''[https://datafranca.org/wiki/Hyperparam%C3%A8tre hyperparamètre]'''.
Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.  


==Français==


Note
'''pas du gradient''' 


À chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.
'''gain du gradient''' 


Le taux d'apprentissage est un '''hyperparamètre'''.
'''pas de gradient'''


'''taux d'apprentissage''' 


<br />
'''pas d'apprentissage''' 


== Français ==
'''taux d'entraînement''
'''gain du gradient'''


'''pas du gradient'''
==Anglais==


'''pas de gradient'''
'''learning rate'''


'''taux d'apprentissage'''
'''training rate'''


'''pas d'apprentissage'''
'''step size'''


'''taux d'entraînement'''


<br />
<small>


== Anglais ==
Source: Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). ''Les réseaux de neurones artificiels : un apport potentiel aux études marketing'', Recherche et Applications en Marketing, 11(2), pages 63-81.


'''learning rate'''
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]       


'''training rate'''
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']


'''step size'''
[[Utilisateur:Patrickdrouin  | Source: Termino]]


<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>[https://datafranca.org/lexique/taux-dapprentissage/        ''Publié : datafranca.org'' ]
<br/>
<br/>


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]

Version du 1 février 2021 à 21:03

Définition

Facteur multiplicatif appliqué au gradient afin de faire varier le gain du gradient.

Note: à chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient. Le produit ainsi généré est appelé gain de gradient.

Le taux d'apprentissage est un hyperparamètre.

Français

pas du gradient

gain du gradient

pas de gradient

taux d'apprentissage

pas d'apprentissage

taux d'entraînement

Anglais

learning rate

training rate

step size


Source: Boné, Romuald; Jean-Pierre Asselin de Beauville et Monique Zollinger (1996). Les réseaux de neurones artificiels : un apport potentiel aux études marketing, Recherche et Applications en Marketing, 11(2), pages 63-81.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Claude Coulombe, Datafranca.org

Source: Google machine learning glossary

Source: Termino