« Régularisation par abandon » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(18 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty]]
[[Category:9]
<br />
== Définition ==
== Définition ==
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.  
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.  


<br />
== Français ==
''' régularisation par abandon  '''


== Termes privilégiés ==
== Anglais ==
=== régularisation par abandon  n.f.===
'''  dropout regularization '''


==Sources==


<br />
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
 
== Anglais ==


===  dropout regularization ===


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
[[Category:Apprentissage profond]]
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Version du 28 janvier 2024 à 13:13

Définition

Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.

Français

régularisation par abandon

Anglais

dropout regularization

Sources

Source: Google machine learning glossary