« Descente de gradient » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(37 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />


<br />
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.


== Définition ==
==Compléments==
Technique de minimisation de la perte en calculant les gradients de la perte pour les paramètres du modèle, en fonction des données d'apprentissage. La descente de gradient ajuste de manière itérative les paramètres afin de trouver progressivement la meilleure combinaison de pondérations et de biais pour minimiser la perte.
Par abus de langage on utilise « descente de gradient » pour faire référence à la fois à la « '''[[descente de gradient stochastique]]''' » et à la « descente de gradient par mini-lot ». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans '''[[échantillonnage]]''', on pourrait alors parler de « vraie descente de gradient » (''true gradient descent'').


==Français==
'''descente de gradient''' 


<br />
'''descente de gradient stochastique''' 
== Termes privilégiés ==
=== descente de gradient===


==Anglais==
'''gradient descent'''


<br />
'''stochastic gradient descent'''
== Anglais ==


===  gradient descent===
==Sources==
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018),'' Apprentissage profond'', Paris, Massot éditions, 800 pages.


<br/>
Source : Fourure, Damien (2017). ''Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur''. thèse de doctorat, Université de Lyon, 178 pages.
<br/>
 
<br/>
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary]
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
 
<br/>
[[Utilisateur:JulieRoy  | Source : Julie Roy, Termino]]
<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>

Dernière version du 11 octobre 2024 à 08:33

Définition

Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.

La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.

Compléments

Par abus de langage on utilise « descente de gradient » pour faire référence à la fois à la « descente de gradient stochastique » et à la « descente de gradient par mini-lot ». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans échantillonnage, on pourrait alors parler de « vraie descente de gradient » (true gradient descent).

Français

descente de gradient

descente de gradient stochastique

Anglais

gradient descent

stochastic gradient descent

Sources

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages.

Source : Google machine learning glossary

Source : Julie Roy, Termino