« Minimum local » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur. | |||
Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local». | |||
Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale. | |||
== Français == | == Français == | ||
'''Minimum local ''' | |||
== Anglais == | == Anglais == | ||
''' | '''Local minimum''' | ||
----- | |||
Understanding this term depends to some extent on the error surface metaphor. | Understanding this term depends to some extent on the error surface metaphor. | ||
Ligne 20 : | Ligne 20 : | ||
In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error. | In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error. | ||
----- | |||
<small> | <small> | ||
[http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html Source : UNWS machine learning dictionary] ] | [http://www.cse.unsw.edu.au/~billw/dictionaries/mldict.html Source : UNWS machine learning dictionary] | ||
[[Catégorie:vocabulaire]] |
Version du 21 mai 2020 à 19:19
Définition
La compréhension de ce terme dépend dans une certaine mesure de la métaphore de la surface d'erreur.
Lorsqu'un algorithme d'apprentissage de réseau neuronal artificiel fait descendre l'erreur totale du réseau dans une vallée de la surface d'erreur, cette vallée peut ou non conduire au point le plus bas sur toute la surface d'erreur. Si ce n'est pas le cas, le minimum dans lequel l'erreur totale finira par tomber est appelé minimum local. L'algorithme d'apprentissage est parfois appelé dans ce cas «piégé dans un minimum local».
Dans de tels cas, il est généralement utile de redémarrer l'algorithme avec un nouvel ensemble initial de poids choisi au hasard - c'est-à-dire à un nouveau point aléatoire dans l'espace de poids. Comme cela signifie un nouveau point de départ sur la surface d'erreur, il est susceptible de conduire dans une vallée différente, et nous espérons que celle-ci conduira à la véritable erreur minimale (absolue), ou au moins à une meilleure erreur minimale.
Français
Minimum local
Anglais
Local minimum
Understanding this term depends to some extent on the error surface metaphor.
When an artificial neural network learning algorithm causes the total error of the net to descend into a valley of the error surface, that valley may or may not lead to the lowest point on the entire error surface. If it does not, the minimum into which the total error will eventually fall is termed a local minimum. The learning algorithm is sometimes referred to in this case as "trapped in a local minimum."
In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error.
Contributeurs: Imane Meziani, wiki, Sihem Kouache