« Amplification adaptative » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Domaine== | ==Domaine== | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Catégorie:Apprentissage automatique]] | [[Catégorie:Apprentissage automatique]] Apprentissage automatique<br> | ||
[[Catégorie:Algorithme | [[Catégorie:Algorithme d'optimisation]]Algorithme d'optimisation | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Ligne 15 : | Ligne 14 : | ||
'''AdaBoost''' n.m. | '''AdaBoost''' n.m. | ||
==Anglais== | ==Anglais== | ||
'''adaboost''' | '''adaboost''' | ||
Version du 15 juin 2019 à 09:35
Domaine
Apprentissage automatique
Algorithme d'optimisation
Définition
De l'acronyme Adaboost (adaptive boosting). méta-algorithme d'amplification introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classeurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur amplifié. L'amplification est adaptative dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents.
Français
amplification adaptative n.f.
algorithme AdaBoost n.m.
AdaBoost n.m.
Anglais
adaboost
Contributeurs: Jacques Barolet, wiki