« Ecrêtage de gradient » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
(Ajustement de quelques sections de la fiche.)
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]  Vocabulary
[[Category:Vocabulaire]]<br/>
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Category:Intelligence artificielle]]Intelligence artificielle<br/>  
[[Category:Apprentissage automatique]] Apprentissage automatique<br/>
[[Category:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Termino 2019]]
[[Category:Scotty]]
   
   
== Définition ==
== Définition ==
Mécanisme couramment utilisé afin d'atténuer le problème d'explosion du gradient en limitant artificiellement la valeur maximale des gradients lors de l'utilisation de la descente de gradient pendant l'entraînement d'un modèle.




Ligne 10 : Ligne 14 :


== Français ==
== Français ==
'''écrêtage de gradient'''
'''bornement de gradient'''


   
   
Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.
 
   
   
== Anglais ==
== Anglais ==

Version du 3 juin 2019 à 10:55

Domaine


Intelligence artificielle
Apprentissage automatique
Apprentissage profond

Définition

Mécanisme couramment utilisé afin d'atténuer le problème d'explosion du gradient en limitant artificiellement la valeur maximale des gradients lors de l'utilisation de la descente de gradient pendant l'entraînement d'un modèle.



Français

écrêtage de gradient

bornement de gradient


Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.


Anglais

Gradient Clipping

Gradient Clipping is a technique to prevent exploding gradients in very deep networks, typically Recurrent Neural Networks. There exist various ways to perform gradient clipping, but the a common one is to normalize the gradients of a parameter vector when its L2 norm exceeds a certain threshold according to new_gradients = gradients * threshold / l2_norm(gradients). • On the difficulty of training recurrent neural networks