« Ecrêtage de gradient » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
 
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
Intelligence artificielle<br /> 
[[Category:Apprentissage automatique]]
[[Category:Apprentissage automatique]]
Apprentissage automatique<br />
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
Apprentissage profond<br />
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty2]]
[[Category:Scotty2]]
Ligne 22 : Ligne 19 :
'''Gradient Clipping'''
'''Gradient Clipping'''


 
<small>
 
 


Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages.
Source: Géron, Aurélien (2017). ''Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets'', Paris, Dunod, 360 pages.


[[Utilisateur:Patrickdrouin  | Source : Termino  ]]
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]

Version du 20 juin 2019 à 11:01


Définition

Mécanisme couramment utilisé afin d'atténuer le problème d'explosion du gradient en limitant artificiellement la valeur maximale des gradients lors de l'utilisation de la descente de gradient pendant l'entraînement d'un modèle.

Français

écrêtage de gradient n.m.

bornement de gradient n.m.

Anglais

Gradient Clipping

Source: Géron, Aurélien (2017). Deep Learning avec TensorFlow - Mise en oeuvre et cas concrets, Paris, Dunod, 360 pages.

Source : Termino