Dimension de Vapnik-Chervonenkis


Révision datée du 29 janvier 2024 à 11:56 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Dans la théorie de l'apprentissage automatique, la dimension VC est une mesure de la capacité d'un algorithme de classification statistique. Elle est définie comme le cardinal du plus grand ensemble de points que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par Vladimir Vapnik et Alexeï Tchervonenkis.

Français

dimension de Vapnik-Chervonenkis

dimension VC

Anglais

VC dimension

Sources

Source: L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.

Source: Wikipedia, Dimension de Vapnik-Tchervonenkis.



Contributeurs: Jacques Barolet, wiki