« Minimum local » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Pitpitt a déplacé la page Local minimum vers Minimum local)
(6 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
==en construction==
==Définition==
== Définition ==
En ce qui concerne les réseaux de neurones, c'est un état dans lequel un réseau de neurones d'apprentissage entre parfois, où les ajustements de poids pour un ou plusieurs modèles d'entraînement compensent simplement les ajustements effectués pour un modèle précédemment formé.


Le modèle précédemment formé ne se trouve pas dans son mappage de sortie souhaité idéal, mais est coincé dans un mappage de réponse "local" moins qu'idéal, appelé '''minimum local'''. Cet état peut parfois être évité en faisant un jogging aléatoire des poids de connexion (jogging de poids).


----------------
Le concept sous-jacent d'un minimum local est souvent évoqué au pluriel: '''minima locaux'''.  
La formation au réseau de neurones est un processus complexe. Heureusement, nous n'avons pas besoin de le comprendre parfaitement pour en bénéficier: les architectures de réseau et les procédures de formation que nous utilisons aboutissent vraiment à des systèmes fonctionnels qui atteignent une précision de classification très élevée. Cependant, il y a un aspect théorique de la formation qui, en dépit d'être quelque peu abstrus, mérite notre attention. «'''le problème des minima locaux'''».
 
 
----------------
 
Il y a beaucoup d'intérêt pour essayer de caractériser la surface d'erreur des modèles profonds. Cela découle d'une question de longue date.
 
Étant donné que les réseaux profonds sont des systèmes hautement non linéaires optimisés par des méthodes de gradient local, pourquoi ne semblent-ils pas être affectés par de mauvais minima locaux? Il est largement admis que la formation de modèles profonds à l'aide de méthodes de gradient fonctionne si bien parce que la surface d'erreur n'a pas de minima locaux, ou s'ils existent, ils doivent avoir une valeur proche du minimum global.
 
Il est connu que ces résultats reposent sur des hypothèses très fortes qui ne sont pas satisfaites par des modèles réels. Dans cet article, nous présentons des exemples montrant que pour qu'un tel théorème soit vrai, des hypothèses supplémentaires sur les données, des schémas d'initialisation et / ou les classes de modèle doivent être faites. Nous examinons le cas particulier des ensembles de données de taille finie. Nous démontrons que dans ce scénario, on peut construire des contre-exemples (ensembles de données ou schémas d'initialisation) lorsque le réseau devient sensible à de mauvais minima locaux sur l'espace de poids.
 
 
---------------------
La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur.
 
Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local».
 
Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale.


== Français ==
== Français ==
'''Minimum local ''' <small> masculin </small>
'''Minimum local ''' <small> masculin </small>
'''Minima locaux ''' <small> masculin </small>
   
   
== Anglais ==
== Anglais ==
'''Local minimum'''
'''Local minimum'''


-----


Understanding this term depends to some extent on the error surface metaphor.
<small>
 
When an artificial neural network learning algorithm causes the total error of the net to descend into a valley of the error surface, that valley may or may not lead to the lowest point on the entire error surface. If it does not, the minimum into which the total error will eventually fall is termed a local minimum. The learning algorithm is sometimes referred to in this case as "trapped in a local minimum."
 
In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error.
 
-----


<small>
[http://standoutpublishing.com/g/local-minimum.html    Source : Standoutpublishing ]


[https://arxiv.org/abs/1611.06310  Source :  Cornell University ]
[https://arxiv.org/abs/1611.06310  Source :  Cornell University ]
Ligne 46 : Ligne 24 :




[[Catégorie:vocabulaire]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Scotty2]]

Version du 28 mai 2020 à 20:45

Définition

En ce qui concerne les réseaux de neurones, c'est un état dans lequel un réseau de neurones d'apprentissage entre parfois, où les ajustements de poids pour un ou plusieurs modèles d'entraînement compensent simplement les ajustements effectués pour un modèle précédemment formé.

Le modèle précédemment formé ne se trouve pas dans son mappage de sortie souhaité idéal, mais est coincé dans un mappage de réponse "local" moins qu'idéal, appelé minimum local. Cet état peut parfois être évité en faisant un jogging aléatoire des poids de connexion (jogging de poids).

Le concept sous-jacent d'un minimum local est souvent évoqué au pluriel: minima locaux.

Français

Minimum local masculin

Minima locaux masculin

Anglais

Local minimum


Source : Standoutpublishing

Source : Cornell University

Source : UNWS machine learning dictionary



Contributeurs: Imane Meziani, wiki, Sihem Kouache