Balise : Éditeur de wikicode 2017 |
|
(18 versions intermédiaires par 3 utilisateurs non affichées) |
Ligne 1 : |
Ligne 1 : |
| ==en construction== | | ==Définition== |
| == Définition ==
| | Point d’une fonction de valeur minimale, mais qui ne correspond pas au minimum global de la même fonction. |
|
| |
|
| | Note - Un réseau de neurones en cours d’entraînement se retrouve parfois piégé dans un minimum local. Souvent, le seul moyen pour y remédier est de reprendre l’entraînement avec de nouveaux paramètres aléatoires. |
|
| |
|
| ----------------
| | == Français == |
| La formation au réseau de neurones est un processus complexe. Heureusement, nous n'avons pas besoin de le comprendre parfaitement pour en bénéficier: les architectures de réseau et les procédures de formation que nous utilisons aboutissent vraiment à des systèmes fonctionnels qui atteignent une précision de classification très élevée. Cependant, il y a un aspect théorique de la formation qui, en dépit d'être quelque peu abstrus, mérite notre attention. «'''le problème des minima locaux'''».
| | '''Minimum local ''' |
| | |
| | |
| ----------------
| |
| | |
| Il y a beaucoup d'intérêt pour essayer de caractériser la surface d'erreur des modèles profonds. Cela découle d'une question de longue date.
| |
| | |
| Étant donné que les réseaux profonds sont des systèmes hautement non linéaires optimisés par des méthodes de gradient local, pourquoi ne semblent-ils pas être affectés par de mauvais minima locaux? Il est largement admis que la formation de modèles profonds à l'aide de méthodes de gradient fonctionne si bien parce que la surface d'erreur n'a pas de minima locaux, ou s'ils existent, ils doivent avoir une valeur proche du minimum global.
| |
| | |
| Il est connu que ces résultats reposent sur des hypothèses très fortes qui ne sont pas satisfaites par des modèles réels. Dans cet article, nous présentons des exemples montrant que pour qu'un tel théorème soit vrai, des hypothèses supplémentaires sur les données, des schémas d'initialisation et / ou les classes de modèle doivent être faites. Nous examinons le cas particulier des ensembles de données de taille finie. Nous démontrons que dans ce scénario, on peut construire des contre-exemples (ensembles de données ou schémas d'initialisation) lorsque le réseau devient sensible à de mauvais minima locaux sur l'espace de poids.
| |
|
| |
|
| | | '''Minima locaux ''' |
| ---------------------
| |
| La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur.
| |
| | |
| Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local».
| |
| | |
| Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale.
| |
| | |
| | |
| | |
| | |
| | |
| | |
| == Français ==
| |
| '''Minimum local ''' <small> masculin </small>
| |
| | | |
| == Anglais == | | == Anglais == |
Ligne 35 : |
Ligne 13 : |
|
| |
|
|
| |
|
| <small>
| | |
| | ==Sources== |
| | |
| | [http://standoutpublishing.com/g/local-minimum.html Source : Standoutpublishing ] |
|
| |
|
| [https://arxiv.org/abs/1611.06310 Source : Cornell University ] | | [https://arxiv.org/abs/1611.06310 Source : Cornell University ] |
Ligne 42 : |
Ligne 23 : |
|
| |
|
|
| |
|
| [[Catégorie:vocabulaire]] | | |
| | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Définition
Point d’une fonction de valeur minimale, mais qui ne correspond pas au minimum global de la même fonction.
Note - Un réseau de neurones en cours d’entraînement se retrouve parfois piégé dans un minimum local. Souvent, le seul moyen pour y remédier est de reprendre l’entraînement avec de nouveaux paramètres aléatoires.
Français
Minimum local
Minima locaux
Anglais
Local minimum
Sources
Source : Standoutpublishing
Source : Cornell University
Source : UNWS machine learning dictionary