« Dimension de Vapnik-Chervonenkis » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — «  ==Définition== » par «  ==Définition== »)
Ligne 1 : Ligne 1 :
[[Catégorie:Apprentissage profond]]  
[[Catégorie:Apprentissage profond]]  
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]


==Définition==
==Définition==

Version du 18 avril 2020 à 10:10


Définition

Dans la théorie de l'apprentissage automatique, la dimension VC est une mesure de la capacité d'un algorithme de classification statistique. Elle est définie comme le cardinal du plus grand ensemble de points que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par Vladimir Vapnik et Alexeï Tchervonenkis.

Français

dimension de Vapnik-Chervonenkis loc.nom. fém.

dimension VC loc.nom. fém.

Anglais

VC dimension


Source: L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.

Source: Wikipedia, Dimension de Vapnik-Tchervonenkis.

Contributeurs: Jacques Barolet, wiki