« Sous-ajustement » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement. | Situation observée quand un algorithme d''''[[apprentissage automatique]]''' ou un '''[[modèle statistique]]''' ne s'ajuste que grossièrement aux '''[[données d'entraînement]]''', ce qui se traduit par une erreur élevée sur les données d'entraînement. | ||
Note: dans de telles circonstances on observera également une erreur élevée sur les données de test. | Note: dans de telles circonstances on observera également une erreur élevée sur les données de test. | ||
Ligne 17 : | Ligne 17 : | ||
'''underlearning''' | '''underlearning''' | ||
==Sources== | ==Sources== | ||
[https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html Source: Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement'']. | [https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html | ||
Source : Amazon Machine Learning, Manuel du développeur, ''Ajustement du modèle : sous-ajustement et surajustement'']. | |||
Source: Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages. | Source : Lecompte, Jérémie (2007). ''Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+'', mémoire de maitrise, Université de Sherbrooke, 155 pages. | ||
Source: Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages. | Source : Côté, Marc-Alexandre (2017). ''Réseaux de neurones génératifs avec structure'', thèse de doctorat, Université de Sherbrooke, 170 pages. | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] |
Version du 28 avril 2024 à 21:50
Définition
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.
Note: dans de telles circonstances on observera également une erreur élevée sur les données de test.
Français
sous-ajustement
sous-entraînement
sous-apprentissage
Anglais
underfitting
undertraining
underlearning
Sources
Source : Amazon Machine Learning, Manuel du développeur, Ajustement du modèle : sous-ajustement et surajustement].
Source : Lecompte, Jérémie (2007). Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+, mémoire de maitrise, Université de Sherbrooke, 155 pages.
Source : Côté, Marc-Alexandre (2017). Réseaux de neurones génératifs avec structure, thèse de doctorat, Université de Sherbrooke, 170 pages.
Contributeurs: Evan Brach, Jacques Barolet, Patrick Drouin, wiki