« Dimension de Vapnik-Chervonenkis » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « ↵↵↵==Sources== » par « ==Sources== ») |
||
(3 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 3 : | Ligne 3 : | ||
==Français== | ==Français== | ||
'''dimension de Vapnik-Chervonenkis''' | '''dimension de Vapnik-Chervonenkis''' | ||
'''dimension VC''' | '''dimension VC''' | ||
==Anglais== | ==Anglais== | ||
'''VC dimension''' | '''VC dimension''' | ||
==Sources== | |||
[https://apprentissageprofond.org Source: ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.] | [https://apprentissageprofond.org Source: ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 131.] |
Dernière version du 29 janvier 2024 à 10:56
Définition
Dans la théorie de l'apprentissage automatique, la dimension VC est une mesure de la capacité d'un algorithme de classification statistique. Elle est définie comme le cardinal du plus grand ensemble de points que l'algorithme peut pulvériser. C'est un concept central dans la théorie de Vapnik-Tchervonenkis. Il a été défini par Vladimir Vapnik et Alexeï Tchervonenkis.
Français
dimension de Vapnik-Chervonenkis
dimension VC
Anglais
VC dimension
Sources
Contributeurs: Jacques Barolet, wiki