« Algorithme de dopage » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
(3 versions intermédiaires par le même utilisateur non affichées)
Ligne 8 : Ligne 8 :
Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.
Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.


Note: le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (re-pondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme ''adaptative boosting'') qui a surtout une importance historique.
Note: le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (repondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme ''adaptative boosting'') qui a surtout une importance historique.


==Français==
==Français==
'''algorithme de dopage'''  n.m.<br>
'''algorithme de dopage'''  <small>loc. nom. masc.</small> <br>


==Anglais==
==Anglais==
Ligne 20 : Ligne 20 :
<small>
<small>


Source : Russell, Stuart et Peter Norvig (2010). ''Intelligence artificielle avec plus de 500 exercices'', 3e édition, Paris, Pearson Education, 1200 pages.<br>
Source: Russell, Stuart et Peter Norvig (2010). ''Intelligence artificielle avec plus de 500 exercices'', 3e édition, Paris, Pearson Education, 1200 pages.<br>


Source : Meddouri, N. et M. Maddouri (2009). ''Générer des règles de classification par dopage de concepts formels'', actes de la conférence EGC 2009, pages 181–186.<br>
Source: Meddouri, N. et M. Maddouri (2009). ''Générer des règles de classification par dopage de concepts formels'', actes de la conférence EGC 2009, pages 181–186.<br>


Source : Atanasoaei, Cosmin (2012). ''Multivariate Boosting with Look-Up Tables for Face Processing'', thèse de doctorat, École polytechnique fédérale de Lausanne, 151 pages.
Source: Atanasoaei, Cosmin (2012). ''Multivariate Boosting with Look-Up Tables for Face Processing'', thèse de doctorat, École polytechnique fédérale de Lausanne, 151 pages.




[[Utilisateur:Patrickdrouin  | Source : Termino ]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]

Version du 9 juillet 2019 à 23:18


Définition

Méta-algorithme d'apprentissage ensembliste qui agrège itérativement des classificateurs faibles créés et pondérés selon leur performance pour former un classificateur final fort.

Note: le but du dopage ensembliste est de réduire la variance et le biais en combinant un ensemble de classificateurs faibles. Au moment de l'ajout d'un classificateur faible, la pondération des données est réajustée (repondération) où les données mal classées gagnent du poids et les données bien classées perdent du poids. Ainsi, les futurs classificateurs faibles se concentrent davantage sur les exemples que les apprenants faibles précédents ont mal classifiés. Rappelons qu'un classificateur faible est un classificateur capable de distinguer deux classes au moins aussi bien que le hasard ne le permet (il ne se trompe donc pas plus d'une fois sur deux en moyenne, si la distribution des classes est équilibrée). Des algorithmes très populaires appliquent le dopage ensembliste comme XGBoost et AdaBoost (abréviation du terme adaptative boosting) qui a surtout une importance historique.

Français

algorithme de dopage loc. nom. masc.

Anglais

boosting


Source: Russell, Stuart et Peter Norvig (2010). Intelligence artificielle avec plus de 500 exercices, 3e édition, Paris, Pearson Education, 1200 pages.

Source: Meddouri, N. et M. Maddouri (2009). Générer des règles de classification par dopage de concepts formels, actes de la conférence EGC 2009, pages 181–186.

Source: Atanasoaei, Cosmin (2012). Multivariate Boosting with Look-Up Tables for Face Processing, thèse de doctorat, École polytechnique fédérale de Lausanne, 151 pages.


Source: Termino