Résultats de la recherche


  • ...dèle que produit ID3 est un arbre de décision. Cet arbre servira à classer de nouveaux échantillons. ...algorithme C4.5]]''' est une amélioration d'ID3, notamment du point de vue de la facilité d'implémentation.
    922 octet (145 mots) - 11 février 2024 à 22:13
  • ...struire des [[prédicteur]]s par arbre aussi bien en [[régression]] qu'en [[classification]]. ...oir que deux fils) et le critère de segmentation est l'indice de diversité de [[Gini]].
    1 kio (143 mots) - 29 janvier 2024 à 11:31
  • ...classification supervisé, publié par Ross Quinlan. Il est basé sur l''''[[algorithme ID3]]''' auquel il apporte plusieurs améliorations. Quinlan a ensuite cré '''algorithme C4.5'''
    598 octet (80 mots) - 14 avril 2024 à 21:55
  • ...] non supervisé utilisé pour la [[classification hiérarchique]] de volumes de données particulièrement importants. '''algorithme BIRCH'''
    466 octet (57 mots) - 29 janvier 2024 à 10:24
  • ...ithme de [[classification supervisée]] basé sur la distance entre un point de donnée et des prototypes. L'algorithme QVA a été inventé par Teuvo Kohonen.
    1 kio (173 mots) - 28 janvier 2024 à 12:39
  • ...omme les '''[[Arbre de classification | arbres de classification]]''' ou l'algorithme SVM ('''[[Support vector machine |Support Vector Machine]]'''). ''' Segmentation en analyse de texte'''
    622 octet (88 mots) - 28 janvier 2024 à 13:15
  • ...(embranchement de l’arbre) et de faire des prédictions à l’aide de calculs de probabilités. ...e est utilisée pour prédire des valeurs numériques comme le prix d’un bien de consommation.
    1 kio (189 mots) - 27 janvier 2024 à 17:16
  • ...ssage sur de multiples arbres de décision entraînés sur des sous-ensembles de données légèrement différents. [http://wikistat.fr/pdf/st-m-app-agreg.pdf Source : Wikistats, ''Agrégation de modèles''.]
    1 kio (153 mots) - 7 février 2024 à 20:05
  • ...'' individus, son but est de répartir ces individus dans un certain nombre de classes. ...situés dans un espace euclidien, on peut utiliser la distance comme mesure de dissimilarité. La dissimilarité entre des individus '''''x''''' et '''''y
    932 octet (124 mots) - 28 mars 2024 à 09:55
  • ...sage non supervisé]] permettant d’obtenir des représentations vectorielles de mots ou [[vecteur-mot|vecteurs-mots]]. ...s statistiques de cooccurrences de mots globales et agrégées calculées sur de vastes corpus.
    908 octet (113 mots) - 27 janvier 2024 à 23:50
  • ...omatique supervisé]] utilisée pour la classification et la régression afin de classer une donnée en entrée dans la catégorie à laquelle appartiennent ...ches voisins est un cas particulier d'un algorithme [[apprentissage à base de voisinage]].
    2 kio (380 mots) - 29 janvier 2024 à 11:38
  • [[Algorithme des k plus proches voisins]] dont l'étiquette à prédire (cible) n'est pa Par exemple, en traitement automatique de la langue, pour une phrase, l'étiquette cible pourrait être une structure
    2 kio (220 mots) - 29 janvier 2024 à 12:09
  • ...]] qui combine la [[régression logistique]] et l'apprentissage par [[arbre de décision]]. '''arbre de modèle logistique'''
    453 octet (58 mots) - 27 janvier 2024 à 17:09
  • ...l'identification des relations d'hyperonymie, d'hyponymie, de synonymie et de contiguïté entre certains termes. '''algorithme d'extraction de relations sémantiques '''
    1 kio (148 mots) - 11 février 2024 à 22:33
  • ...e de données les unes par rapport aux autres, en leur associant un rang de classification. L'algorithme reprend les grandes lignes d'AdaBoost mais remplace les exemples par des co
    769 octet (103 mots) - 6 avril 2021 à 14:54
  • ...que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par '''Vladimir Vapnik''' et '''A '''dimension de Vapnik-Chervonenkis'''
    885 octet (112 mots) - 29 janvier 2024 à 11:56
  • ...tique; qui se base sur l’[[entropie croisée]]. On parle ici d’étiquette ou de variable catégorielle.
    491 octet (66 mots) - 6 décembre 2022 à 08:53
  • [[Méta-algorithme]] d'apprentissage ensembliste qui agrège itérativement des [[classificate '''algorithme de dopage'''
    976 octet (123 mots) - 2 février 2024 à 20:15
  • ...fication hiérarchique, la méthode de Ward est un [[algorithme]] permettant de regrouper deux classes d'une partition pour obtenir une partition plus agr� '''méthode de Ward'''
    621 octet (89 mots) - 11 février 2024 à 22:10
  • Algorithme de classification par [[dopage]]. AdaBoost lui est similaire dans le sens où tous les deux e
    684 octet (88 mots) - 28 janvier 2024 à 11:04
Voir (20 précédentes | ) (20 | 50 | 100 | 250 | 500)