Extinction de neurone


Révision datée du 3 juin 2019 à 20:30 par Patrickdrouin (discussion | contributions) (Ajustement de quelques sections de la fiche.)

Domaine


Intelligence artificielle
Apprentissage automatique
Apprentissage profond


Définition

Technique de régularisation dont le principe est de désactiver aléatoirement à chaque itération un certain pourcentage des neurones d’une couche afin d'éviter le surajustement.



Français

extinction de neurone

<poll> Choisissez parmi ces termes proposés : extinction de neurone maille de réseau point mort trou de neurone trou de mémoire trou de réseau </poll>

Anglais

dropout

Dropout is a regularization technique for Neural Networks that prevents overfitting. It prevents neurons from co-adapting by randomly setting a fraction of them to 0 at each training iteration. Dropout can be interpreted in various ways, such as randomly sampling from an exponential number of different networks. Dropout layers first gained popularity through their use in CNNs, but have since been applied to other layers, including input embeddings or recurrent networks.