« Extinction de neurone » : différence entre les versions


(extinction de neurone à la place de neurone éteint)
Aucun résumé des modifications
 
(32 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Domaine==
==Définition==
Technique de [[régularisation]] dont le principe est de désactiver aléatoirement à chaque itération un certain pourcentage des neurones d’une couche afin d'éviter le surajustement.
 
==Français==
'''extinction de neurone'''


[[category:Vocabulary]]
'''régularisation par extinction de neurone'''
Vocabulary<br />
[[Category:Claude]]
Claude<br />
[[Catégorie:Apprentissage profond]]
Apprentissage profond


==Définition==
'''régularisation dropout'''
injection de bruit pour rendre le réseau plus robuste, équivalent <br />
<br />


==Français==
'''décrochage'''


<poll>
'''abandon'''
Choisissez parmi ces termes proposés :
extinction de neurone
maille de réseau
point mort
trou de neurone
trou de mémoire
trou de réseau
</poll>
<br />
<br />


==Anglais==
==Anglais==
'''dropout'''
==Sources==
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]


===Dropout===
[[Utilisateur:Patrickdrouin  | Source: Termino]]


Dropout is a regularization technique for Neural Networks that prevents overfitting. It prevents neurons from co-adapting by randomly setting a fraction of them to 0 at each training iteration. Dropout can be interpreted in various ways, such as randomly sampling from an exponential number of different networks. Dropout layers first gained popularity through their use in CNNs, but have since been applied to other layers, including input embeddings or recurrent networks.
[https://fr.wikipedia.org/wiki/Abandon_(r%C3%A9seaux_neuronaux) Source: Wikipédia]


*Dropout: A Simple Way to Prevent Neural Networks from Overfitting
[[Category:Intelligence artificielle]]
*Recurrent Neural Network Regularization
[[Category:Apprentissage automatique]]
[[Category:Apprentissage profond]]


<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br />
<br />
<br />
<br />

Dernière version du 19 novembre 2024 à 15:07

Définition

Technique de régularisation dont le principe est de désactiver aléatoirement à chaque itération un certain pourcentage des neurones d’une couche afin d'éviter le surajustement.

Français

extinction de neurone

régularisation par extinction de neurone

régularisation dropout

décrochage

abandon

Anglais

dropout

Sources

Source: Claude Coulombe, Datafranca.org

Source: Termino

Source: Wikipédia