Régularisation dans les Réseaux de Neurones


Définition

Il s'agit d'une modification de la fonction d'erreur visant à éviter les problèmes de surajustement ou de sous-ajustement des données d'apprentissage, en construisant un facteur de pénalité en fonction de la complexité du réseau. C'est le résultat que nous obtenons généralement en pénalisant les fortes pondérations, qui correspondent aux fonctions de modélisation des réseaux à fortes courbures (Bishop, 1995).

Français

Régularisation dans les Réseaux de Neurones

Anglais

Neural network regularization


Sources

Source : Statistica

Contributeurs: wiki