« Séparateur à vaste marge » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 5 : Ligne 5 :
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Apprentissage automatique]]
Apprentissage automatique<br />
Apprentissage automatique<br />
[Category:Coulombe]]<br />
[[Category:Coulombe]]<br />
[[Catégorie:Scotty]]
[[Catégorie:Scotty]]



Version du 31 mai 2019 à 08:45

Domaine

Intelligence artificielle
Apprentissage automatique


Définition

Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.

Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.

Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.


Français

séparateur à vaste marge

classificateur à vaste marge

Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.


Anglais

support vector machine


Source : opendatascience.com

Source : Wikipedia