« Sous-ajustement » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(37 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Domaine==
[[Category:Vocabulaire]]
Vocabulaire<br />
[[Category:Claude]]
Claude<br />
[[Category:Apprentissage profond]]
Apprentissage profond<br />
[[Category:scotty]]
[[Category:9]]
<br />
==Définition==
==Définition==
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.


Note: dans de telles circonstances on observera également une erreur élevée sur les données de test.


1-
Biais caractérisé par l'incapacité d'un modèle à capturer la variabilité présente dans les données en raison de sa trop grande simplicité. <ref>[http://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?lang=eng&i=1&srchtxt=SOUS-APPRENTISSAGE Source : Termium plus Labelle, Mélanie * Bureau de la traduction * Services linguistiques * Bur. dir. Centre de traduction et de terminologie * Trad. ang. et multi. et Term. * Normalisation terminologique * 2018]  </ref><br />2-
Action de sous-apprendre une tâche. On dit que le modèle est en sous-apprentissage : il n’a pas pu apprendre toute l’information contenue dans l’ensemble de données disponible.  <ref> [https://fr.wiktionary.org/wiki/sous-apprentissage Geoffroy Simon, Méthodes non linéaires pour séries temporelles, Presses universitaires de Louvain, 2007] </ref>
<br />
==Français==
==Français==
===sous-apprentissage=== n.m.
'''sous-ajustement'''  
===sous-ajustement===  n.m.
 
<br />
'''sous-entraînement''' 
 
'''sous-apprentissage''' 


==Anglais==
==Anglais==
===underfitting===
'''underfitting'''
===underlearning===
 
'''undertraining'''
 
'''underlearning'''
 


<br />
==Sources==
<br />
 
<references />
[https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html  Source:  Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement''].
 
Source: Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages.
 
Source: Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages.
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]
 
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]

Version du 28 janvier 2024 à 13:03

Définition

Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.

Note: dans de telles circonstances on observera également une erreur élevée sur les données de test.

Français

sous-ajustement

sous-entraînement

sous-apprentissage

Anglais

underfitting

undertraining

underlearning


Sources

Source: Amazon Machine Learning, Manuel du développeur, Ajustement du modèle : sous-ajustement et surajustement.

Source: Lecompte, Jérémie (2007). Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+, mémoire de maitrise, Université de Sherbrooke, 155 pages.

Source: Côté, Marc-Alexandre (2017). Réseaux de neurones génératifs avec structure, thèse de doctorat, Université de Sherbrooke, 170 pages.

Source: Termino