« Algorithme de dopage » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
Intelligence artificielle<br />
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty2]]
[[Category:Scotty2]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br>


==Définition==
==Définition==
Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.
Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.


Note
Note


Le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (re-pondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme ''adaptative boosting'') qui a surtout une importance historique.
Le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (re-pondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme ''adaptative boosting'') qui a surtout une importance historique.
<br>


==Français==
==Français==
Ligne 22 : Ligne 17 :
n.m.<br>
n.m.<br>


==Anglais==
'''boosting'''




==Anglais==
'''boosting'''





Version du 15 juin 2019 à 10:18

Domaine

Intelligence artificielle

Définition

Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.

Note

Le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (re-pondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme adaptative boosting) qui a surtout une importance historique.

Français

algorithme de dopage n.m.

Anglais

boosting



Source : Russell, Stuart et Peter Norvig (2010). Intelligence artificielle avec plus de 500 exercices, 3e édition, Paris, Pearson Education, 1200 pages.

Source : Meddouri, N. et M. Maddouri (2009). Générer des règles de classification par dopage de concepts formels, actes de la conférence EGC 2009, pages 181–186.

Source : Atanasoaei, Cosmin (2012). Multivariate Boosting with Look-Up Tables for Face Processing, thèse de doctorat, École polytechnique fédérale de Lausanne, 151 pages.


Source: Termino, Datafranca.org