« Dimension de Vapnik-Chervonenkis » : différence entre les versions
m (Remplacement de texte — « <small> féminin </small> » par « ») |
m (Remplacement de texte : « ↵↵↵==Sources== » par « ==Sources== ») |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 9 : | Ligne 9 : | ||
==Anglais== | ==Anglais== | ||
'''VC dimension''' | '''VC dimension''' | ||
==Sources== | |||
[https://apprentissageprofond.org Source: ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.] | [https://apprentissageprofond.org Source: ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.] |
Dernière version du 29 janvier 2024 à 10:56
Définition
Dans la théorie de l'apprentissage automatique, la dimension VC est une mesure de la capacité d'un algorithme de classification statistique. Elle est définie comme le cardinal du plus grand ensemble de points que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par Vladimir Vapnik et Alexeï Tchervonenkis.
Français
dimension de Vapnik-Chervonenkis
dimension VC
Anglais
VC dimension
Sources
Contributeurs: Jacques Barolet, wiki