« Sous-ajustement » : différence entre les versions


m (Remplacement de texte — « <!-- Termium --> » par « Catégorie:Termium »)
Aucun résumé des modifications
Ligne 9 : Ligne 9 :


==Définition==
==Définition==
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement ce qui se traduit par une erreur élevée sur les données d'entraînement.  
Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.  


Note: Dans de telles circonstances, on observera également une erreur élevée sur les données de test.
Note: dans de telles circonstances, on observera également une erreur élevée sur les données de test.


==Français==
==Français==
'''sous-ajustement'''
'''sous-ajustement''' n.m.


'''sous-entraînement'''
'''sous-entraînement''' n.m.


'''sous-apprentissage'''
'''sous-apprentissage''' n.m.


==Anglais==
==Anglais==

Version du 7 juillet 2019 à 16:06


Définition

Situation observée quand un algorithme d'apprentissage automatique ou un modèle statistique ne s'ajuste que grossièrement aux données d'entraînement, ce qui se traduit par une erreur élevée sur les données d'entraînement.

Note: dans de telles circonstances, on observera également une erreur élevée sur les données de test.

Français

sous-ajustement n.m.

sous-entraînement n.m.

sous-apprentissage n.m.

Anglais

underfitting

undertraining

underlearning



Source : Amazon (sans date). Amazon Machine Learning, Manuel du développeur, https://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html, consulté le 7 juin 2019.

Source : Lecompte, Jérémie (2007). Sélection de mode par réseaux de neurones pour le codeur audio AMR-WB+, mémoire de maitrise, Université de Sherbrooke, 155 pages.

Source : Côté, Marc-Alexandre (2017). Réseaux de neurones génératifs avecstructure, thèse de doctorat, Université de Sherbrooke, 170 pages.