Régularisation dans les Réseaux de Neurones
en construction
Définition
Il s'agit d'une modification de la fonction d'erreur visant à éviter les problèmes de surajustement ou de sous-ajustement des données d'apprentissage, en construisant un facteur de pénalité en fonction de la complexité du réseau. C'est le résultat que nous obtenons généralement en pénalisant les fortes pondérations, qui correspondent aux fonctions de modélisation des réseaux à fortes courbures (Bishop, 1995).
Français
Régularisation dans les Réseaux de Neurones
Anglais
XXXXXXXXX
Contributeurs: wiki