Séparateur à vaste marge


Révision datée du 12 avril 2019 à 18:34 par Claude COULOMBE (discussion | contributions) (Svp, détruire l'autre entrée SVM en anglais qui est redondante)

Domaine


Intelligence artificielle
Apprentissage automatique
[Category:Coulombe]]Coulombe


Définition

Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.

Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.

Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.

Source:

https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support

Français

<poll> Choisissez parmi ces termes proposés : séparateur à vaste marge machine à vecteurs de support classificateur à vaste marge </poll>

Discussion:

Pour le moment, le terme privilégié est «séparateur à vaste marge».

Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.

Anglais

support vector machine

Support vector machines are very powerful algorithms built on an extremely simple premise. Pick the two examples of your different classes that are closest to each other. In practice, this is typically done by finding the Euclidean distance between every training example. These two examples are your support vectors.

Draw a line through the space between the support vectors. This is your hyperplane.

Wiggle the hyperplane around until it maximizes the total distance between the plane and each support vector. This is your cushion.

https://opendatascience.com/machine-learning-for-beginners/