« Amplification adaptative » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | ==Domaine== | ||
[[Category:Vocabulaire2]]Vocabulaire<br /> | [[Category:Vocabulaire2]] | ||
Vocabulaire<br /> | |||
[[Catégorie:Apprentissage automatique]] | [[Catégorie:Apprentissage automatique]] | ||
[[Catégorie:Algorithme de classification]] | [[Catégorie:Algorithme de classification]] | ||
[[Category:scotty2]]<br /> | [[Category:scotty2]] | ||
<br /> | |||
<br /> | <br /> | ||
<br /> | <br /> | ||
Ligne 10 : | Ligne 12 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
== Définition == | ==Définition== | ||
De l'acronyme Adaboost (''adaptive boosting''). méta-algorithme d'amplification introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés ''classeurs faibles'') sont combinées en une somme pondérée qui représente la sortie finale du classeur amplifié. L'amplification est adaptative dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents. | De l'acronyme Adaboost (''adaptive boosting''). méta-algorithme d'amplification introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés ''classeurs faibles'') sont combinées en une somme pondérée qui représente la sortie finale du classeur amplifié. L'amplification est adaptative dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents. | ||
<br /> | <br /> | ||
<br /> | <br /> | ||
== Français == | ==Français== | ||
'''amplification adaptative''' n.f. | '''amplification adaptative''' n.f. | ||
'''adaboost''' n.m. | '''algorithme adaboost''' n.m. | ||
<br /> | <br /> | ||
<br /> | <br /> | ||
== Anglais == | ==Anglais== | ||
'''adaboost''' | '''adaboost''' | ||
<br/> | <br /> | ||
<br/> | <br /> | ||
<br/> | <br /> | ||
[https://fr.wikipedia.org/wiki/AdaBoost ''Source : Wikipedia''] | [https://fr.wikipedia.org/wiki/AdaBoost ''Source : Wikipedia''] | ||
<br/> | <br /> | ||
[https://datafranca.org/lexique/agent-physique/ | [https://datafranca.org/lexique/agent-physique/ ''Publié : datafranca.org''] | ||
<br /><br /> | <br /><br /> | ||
<br/> | <br /> | ||
<br/> | <br /> | ||
<br/> | <br /> | ||
<br/> | <br /> | ||
<br/> | <br /> |
Version du 30 mai 2019 à 14:42
Domaine
Vocabulaire
Définition
De l'acronyme Adaboost (adaptive boosting). méta-algorithme d'amplification introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classeurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur amplifié. L'amplification est adaptative dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents.
Français
amplification adaptative n.f.
algorithme adaboost n.m.
Anglais
adaboost
Contributeurs: Jacques Barolet, wiki