« Pénalisation des poids » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(25 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
== Définition ==
[[category:Vocabulaire]]
Technique de régularisation qui consiste à pénaliser les poids dans une fonction objective afin de limiter le surapprentissage dans un réseau de neurones.
[[Catégorie:App-profond-livre]]
 
<br>
Note: la technique consiste à ajouter une pénalité à la fonction d'erreur qui dépend de la magnitude des poids qui relient les neurones entre eux
<br>
== Description ==
...
<br>
<br>


== Français ==
== Français ==
'''dégradation des pondérations'''
'''pénalisation des poids'''   
   
 
<br>
<br>
== Anglais ==
== Anglais ==
'''weight decay'''
'''weight decay'''
<br>
 
<br>
 
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
==Sources==
<br>
 
<br>
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
[[Utilisateur:Patrickdrouin  | Source : Termino]]
 
[[Category:Intelligence artificielle]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 11:45

Définition

Technique de régularisation qui consiste à pénaliser les poids dans une fonction objective afin de limiter le surapprentissage dans un réseau de neurones.

Note: la technique consiste à ajouter une pénalité à la fonction d'erreur qui dépend de la magnitude des poids qui relient les neurones entre eux

Français

pénalisation des poids

Anglais

weight decay


Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Termino