« Sous-ajustement » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(58 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Situation observée quand un algorithme d''''[[apprentissage automatique]]''' ou un '''[[modèle statistique]]''' ne s'ajuste que grossièrement aux '''[[données d'entraînement]]''', ce qui se traduit par une erreur élevée sur les données d'entraînement.
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Claude]]Claude<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
<br />


== Définition ==
Note : dans de telles circonstances on observera également une erreur élevée sur les données de test.


<br />
==Français==
'''sous-ajustement''' 


'''sous-entraînement''' 


== Français ==
'''sous-apprentissage''' 
===sous-apprentissage===
<br />


==Anglais==
'''underfitting'''


== Anglais ==
'''undertraining'''
===underfitting===
===overtraining===


<br/>
'''underlearning'''
<br/>


<br/>
==Sources==


<br/>
[https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html Source : Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement''].
<br/>
 
<br/>
Source : Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages.
 
Source : Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages.
 
[[Utilisateur:Patrickdrouin  | Source : Termino]]
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]

Dernière version du 11 octobre 2024 à 08:33

Définition

Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.

Note : dans de telles circonstances on observera également une erreur élevée sur les données de test.

Français

sous-ajustement

sous-entraînement

sous-apprentissage

Anglais

underfitting

undertraining

underlearning

Sources

Source : Amazon Machine Learning, Manuel du développeur, Ajustement du modèle : sous-ajustement et surajustement.

Source : Lecompte, Jérémie (2007). Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+, mémoire de maitrise, Université de Sherbrooke, 155 pages.

Source : Côté, Marc-Alexandre (2017). Réseaux de neurones génératifs avec structure, thèse de doctorat, Université de Sherbrooke, 170 pages.

Source : Termino