« Évanescence du gradient » : différence entre les versions
(nouveau terme) Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | ==Domaine== | ||
[[Category:Vocabulary]] | [[Category:Vocabulary]] | ||
[[Category:Intelligence artificielle]]Intelligence artificielle<br> | [[Category:Intelligence artificielle]] | ||
[[Catégorie:Apprentissage automatique]]Apprentissage automatique<br> | Intelligence artificielle<br> | ||
[[Catégorie:Réseau de neurones artificiels]]Réseau de neurones artificiels<br> | [[Catégorie:Apprentissage automatique]] | ||
[[Catégorie:Apprentissage profond]]Apprentissage profond<br> | Apprentissage automatique<br> | ||
[[Category:Coulombe]] | [[Catégorie:Réseau de neurones artificiels]] | ||
Réseau de neurones artificiels<br> | |||
[[Catégorie:Apprentissage profond]] | |||
Apprentissage profond<br> | |||
[[Category:Coulombe]] | |||
[[Category:scotty]] | [[Category:scotty]] | ||
== Définition == | ==Définition== | ||
Le problème de la disparition du gradient (ou l'évanescence du gradient) est l'opposé du problème d'explosion du gradient. Dans les réseaux de neurones profonds, la valeur des gradients peut diminuer fortement pendant la rétropropagation, entraînant l'annulation du gradient (en anglais number underflow) or un gradient nul signifie l'arrêt de l'apprentissage. | Le problème de la disparition du gradient (ou l'évanescence du gradient) est l'opposé du problème d'explosion du gradient. Dans les réseaux de neurones profonds, la valeur des gradients peut diminuer fortement pendant la rétropropagation, entraînant l'annulation du gradient (en anglais number underflow) or un gradient nul signifie l'arrêt de l'apprentissage. | ||
Plusieurs techniques permettent de contrer l'explosion du gradient à commencer par de meilleures techniques d'initialisation (par exemple, Xavier ou Glorot), le choix de fonctions d'activation non saturantes comme la fonction linéaire rectifiée (en anglais ReLU), et la normalisation par lots (en anglais batch normalization) . | Plusieurs techniques permettent de contrer l'explosion du gradient à commencer par de meilleures techniques d'initialisation (par exemple, Xavier ou Glorot), le choix de fonctions d'activation non saturantes comme la fonction linéaire rectifiée (en anglais ReLU), et la normalisation par lots (en anglais batch normalization) . | ||
== Français == | ==Français== | ||
'''problème de la disparition du gradient''' | |||
problème de la disparition du gradient | |||
problème de la disparition des gradients | '''problème de la disparition des gradients''' | ||
<br> | <br> | ||
==Anglais== | |||
'''Vanishing Gradient Problem''' | '''Vanishing Gradient Problem''' | ||
<br> | <br> | ||
<br> | <br> | ||
[https://openclassrooms.com/courses/utilisez-des-modeles-supervises-non-lineaires/empilez-les-perceptrons source : openclassrooms.com ] | |||
<br> | <br> | ||
<br> | <br> | ||
<br> | <br> | ||
<br> | <br> |
Version du 19 avril 2019 à 22:35
Domaine
Intelligence artificielle
Apprentissage automatique
Réseau de neurones artificiels
Apprentissage profond
Définition
Le problème de la disparition du gradient (ou l'évanescence du gradient) est l'opposé du problème d'explosion du gradient. Dans les réseaux de neurones profonds, la valeur des gradients peut diminuer fortement pendant la rétropropagation, entraînant l'annulation du gradient (en anglais number underflow) or un gradient nul signifie l'arrêt de l'apprentissage.
Plusieurs techniques permettent de contrer l'explosion du gradient à commencer par de meilleures techniques d'initialisation (par exemple, Xavier ou Glorot), le choix de fonctions d'activation non saturantes comme la fonction linéaire rectifiée (en anglais ReLU), et la normalisation par lots (en anglais batch normalization) .
Français
problème de la disparition du gradient
problème de la disparition des gradients
Anglais
Vanishing Gradient Problem
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, Pierre Labreche, wiki