« Minimum local » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :


== en construction ==
== Définition ==
[[Catégorie:Vocabulary]]
La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur.
[[Catégorie:Apprentissage machine]]
[[Catégorie:UNSW]]


Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local».
Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale.


== Définition ==
xxxxxxx


== Français ==
== Français ==
xxxxxxx
'''Minimum local '''
   
   
== Anglais ==
== Anglais ==
'''local minimum'''
'''Local minimum'''
-----


Understanding this term depends to some extent on the error surface metaphor.
Understanding this term depends to some extent on the error surface metaphor.
Ligne 20 : Ligne 20 :


In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error.
In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error.
-----


<small>
<small>


[http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html      Source : UNWS machine learning dictionary]  ]
[http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html      Source : UNWS machine learning dictionary]   
 
 
[[Catégorie:vocabulaire]]

Version du 21 mai 2020 à 20:19

Définition

La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur.

Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local».

Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale.


Français

Minimum local

Anglais

Local minimum


Understanding this term depends to some extent on the error surface metaphor.

When an artificial neural network learning algorithm causes the total error of the net to descend into a valley of the error surface, that valley may or may not lead to the lowest point on the entire error surface. If it does not, the minimum into which the total error will eventually fall is termed a local minimum. The learning algorithm is sometimes referred to in this case as "trapped in a local minimum."

In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error.


Source : UNWS machine learning dictionary



Contributeurs: Imane Meziani, wiki, Sihem Kouache