Résultats de la recherche


  • ...dèle que produit ID3 est un arbre de décision. Cet arbre servira à classer de nouveaux échantillons. ...algorithme C4.5]]''' est une amélioration d'ID3, notamment du point de vue de la facilité d'implémentation.
    922 octet (145 mots) - 11 février 2024 à 22:13
  • ...r|prédicteurs]]''' par arbre aussi bien en '''[[régression]]''' qu'en '''[[classification]]'''. ...oir que deux fils) et le critère de segmentation est l'indice de diversité de '''[[Gini]]'''.
    1 kio (152 mots) - 27 avril 2024 à 22:45
  • ...classification supervisé, publié par Ross Quinlan. Il est basé sur l''''[[algorithme ID3]]''' auquel il apporte plusieurs améliorations. Quinlan a ensuite cré '''algorithme C4.5'''
    598 octet (80 mots) - 14 avril 2024 à 21:55
  • ...] non supervisé utilisé pour la [[classification hiérarchique]] de volumes de données particulièrement importants. '''algorithme BIRCH'''
    466 octet (57 mots) - 29 janvier 2024 à 10:24
  • ...ithme de [[classification supervisée]] basé sur la distance entre un point de donnée et des prototypes. L'algorithme QVA a été inventé par Teuvo Kohonen.
    1 kio (173 mots) - 28 janvier 2024 à 12:39
  • ...omme les '''[[Arbre de classification | arbres de classification]]''' ou l'algorithme SVM ('''[[Support vector machine |Support Vector Machine]]'''). ''' Segmentation en analyse de texte'''
    622 octet (88 mots) - 28 janvier 2024 à 13:15
  • ...(embranchement de l’arbre) et de faire des prédictions à l’aide de calculs de probabilités. ...e est utilisée pour prédire des valeurs numériques comme le prix d’un bien de consommation.
    1 kio (193 mots) - 16 mai 2024 à 23:16
  • ...ssage sur de multiples arbres de décision entraînés sur des sous-ensembles de données légèrement différents. [http://wikistat.fr/pdf/st-m-app-agreg.pdf Source : Wikistats, ''Agrégation de modèles''.]
    1 kio (153 mots) - 7 février 2024 à 20:05
  • ...'' individus, son but est de répartir ces individus dans un certain nombre de classes. ...situés dans un espace euclidien, on peut utiliser la distance comme mesure de dissimilarité. La dissimilarité entre des individus '''''x''''' et '''''y
    932 octet (124 mots) - 28 mars 2024 à 09:55
  • ...sage non supervisé]] permettant d’obtenir des représentations vectorielles de mots ou [[vecteur-mot|vecteurs-mots]]. ...s statistiques de cooccurrences de mots globales et agrégées calculées sur de vastes corpus.
    908 octet (113 mots) - 27 janvier 2024 à 23:50
  • ...omatique supervisé]] utilisée pour la classification et la régression afin de classer une donnée en entrée dans la catégorie à laquelle appartiennent ...ches voisins est un cas particulier d'un algorithme [[apprentissage à base de voisinage]].
    2 kio (380 mots) - 29 janvier 2024 à 11:38
  • [[Algorithme des k plus proches voisins]] dont l'étiquette à prédire (cible) n'est pa Par exemple, en traitement automatique de la langue, pour une phrase, l'étiquette cible pourrait être une structure
    2 kio (220 mots) - 29 janvier 2024 à 12:09
  • ...]] qui combine la [[régression logistique]] et l'apprentissage par [[arbre de décision]]. '''arbre de modèle logistique'''
    453 octet (58 mots) - 27 janvier 2024 à 17:09
  • ...l'identification des relations d'hyperonymie, d'hyponymie, de synonymie et de contiguïté entre certains termes. '''algorithme d'extraction de relations sémantiques '''
    1 kio (148 mots) - 11 février 2024 à 22:33
  • ...e de données les unes par rapport aux autres, en leur associant un rang de classification. L'algorithme reprend les grandes lignes d'AdaBoost mais remplace les exemples par des co
    769 octet (103 mots) - 6 avril 2021 à 14:54
  • ...que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par '''Vladimir Vapnik''' et '''A '''dimension de Vapnik-Chervonenkis'''
    885 octet (112 mots) - 29 janvier 2024 à 11:56
  • ...tique; qui se base sur l’[[entropie croisée]]. On parle ici d’étiquette ou de variable catégorielle.
    491 octet (66 mots) - 6 décembre 2022 à 08:53
  • [[Méta-algorithme]] d'apprentissage ensembliste qui agrège itérativement des [[classificate '''algorithme de dopage'''
    976 octet (123 mots) - 2 février 2024 à 20:15
  • ...fication hiérarchique, la méthode de Ward est un [[algorithme]] permettant de regrouper deux classes d'une partition pour obtenir une partition plus agr� '''méthode de Ward'''
    621 octet (89 mots) - 11 février 2024 à 22:10
  • Algorithme de classification par [[dopage]]. AdaBoost lui est similaire dans le sens où tous les deux e
    684 octet (88 mots) - 28 janvier 2024 à 11:04
  • ...le CART]]''' de Leo Breiman, les arbres rapides et frugaux ont été définis de manière à être intentionnellement simples, tant dans leur construction q
    1 kio (164 mots) - 29 janvier 2024 à 11:41
  • ...e, un bon élève est un classicateur arbitrairement bien corrélé à la vraie classification.
    1 kio (153 mots) - 11 février 2024 à 21:45
  • ...de vraisemblance]] d'un modèle probabiliste même lorsque ce dernier dépend de variables latentes non observables. Remarque : cet algorithme itératif comporte deux étapes:
    2 kio (279 mots) - 2 mai 2024 à 13:43
  • ...e, un modèle de régression pour la prédiction d'un nombre ou quelque chose de plus complexe comme un classificateur multiclasses et multiétiquettes. ...s problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
    1 kio (217 mots) - 8 février 2024 à 17:56
  • ...ités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
    701 octet (97 mots) - 29 janvier 2024 à 12:12
  • ...négatives en associant à chaque vecteur d'entrée un vecteur dans un espace de plus grande dimension. Les KSVM utilisent une fonction de perte appelée '''[[Marge maximale]]'''.
    688 octet (91 mots) - 22 mars 2024 à 23:15
  • ...ne au hasard avec remise les données d'entraînement pour créer un ensemble de modèles où chaque sous-échantillon correspond à un modèle distinct. ...ensembliste aide à réduire la variance et le sur-ajustement. L'algorithme de la forêt aléatoire ''(random forest)'' est une extension très utilisée
    1 kio (202 mots) - 28 janvier 2024 à 13:11
  • ...e aux données, et de mesurer la distance entre les points en tenant compte de cette structure.
    963 octet (134 mots) - 13 février 2024 à 18:07
  • ...certains arbres en utilisant une fonction de coût optimisée par [[descente de gradient]]. voir : [[Classificateur à renforcement de gradient]]
    1 kio (134 mots) - 11 février 2024 à 21:40
  • ...ue basé sur des règles est l'identification et l'utilisation d'un ensemble de règles relationnelles représentant collectivement les connaissances captu ...es incluent l’apprentissage de systèmes de classification, l’apprentissage de règles d’association et les systèmes immunitaires artificiels.
    1 kio (135 mots) - 29 janvier 2024 à 11:30
  • ...une donnée dans l'espace de départ et retourne une données dans un espace de dimension plus élevée.
    867 octet (119 mots) - 2 février 2021 à 09:33
  • ...n, en conservant toutes les principales caractéristiques qui définissent l'algorithme (marge maximale). ...Par exemple, comme la sortie est un nombre réel, il devient très difficile de prédire les informations disponibles, ce qui offre des possibilités infin
    1 kio (186 mots) - 28 janvier 2024 à 13:16
  • ...cachées et les neurones des couches visibles pour des raisons d'efficacité de l'entraînement. ...ltrage collaboratif, l'apprentissage de fonctionnalités et l'apprentissage de mots clés.
    1 kio (153 mots) - 28 janvier 2024 à 10:58
  • ...e machine soit utile dans le monde réel, sans parler de l'apprentissage et de l'amélioration. ...oins de l'apprentissage automatique, quelle que soit la méthode spécifique de calcul et d'interprétation des probabilités employée, toutes les formes
    1 kio (179 mots) - 27 janvier 2024 à 23:54
  • Famille d'algorithmes de classification et de régression qui attribue une classe sur la base d'une similarité entre une ...x (en anglais, lazy learning), car il retarde le processus jusqu’au moment de la prédiction.
    3 kio (342 mots) - 29 janvier 2024 à 11:24
  • Le perceptron est un algorithme d'apprentissage supervisé utilisé pour la classification binaire (c'est-à-dire , conçu pour séparer deux classes). ...rème mathématique assure que la règle d'apprentissage du perceptron permet de trouver une droite séparatrice entre les deux classes.
    2 kio (301 mots) - 28 janvier 2024 à 11:44
  • En apprentissage automatique, un modèle prédictif a pour tâche de prédire, sur la base d’un entraînement sur des données, un résultat ( ...u « non pourriel » s’il est entraîné sur des centaines, voire des milliers de courriels annotés.
    3 kio (451 mots) - 28 janvier 2024 à 11:03
  • ...cateurs linéaires et destiné à résoudre des problèmes de classification et de régression. ...s au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par or
    3 kio (407 mots) - 28 janvier 2024 à 14:05
  • Fonction mathématique ou modèle prédictif qui repose sur un algorithme de classification qui associe les données en entrée à une catégorie ou classe en sortie. ...classe des données entre plus de deux classes, ou encore de quelque chose de plus complexe comme un classificateur multiclasses et multiétiquettes (mul
    1 kio (197 mots) - 14 mai 2024 à 17:40
  • [[algorithme ]] [[algorithme prédictif ]]
    5 kio (535 mots) - 29 janvier 2024 à 11:27
  • ...e que l’entraînement est réussi lorsque l’écart entre les prédictions de l’algorithme et les annotations est minimal. ...endre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non-supervisé où on ne dispose pas d'annotations.
    4 kio (567 mots) - 8 février 2024 à 17:54