Support vector machine

De DataFranca

Domaine


Intelligence artificielle
Apprentissage automatique
[Category:Coulombe]]Coulombe


Définition

Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.

Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.

Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.

Source:

https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support

Français

Choisissez parmi ces termes proposés :
Vous n'êtes pas autorisé à voter.
Vous n'êtes pas autorisé à voir les résultats de ce sondage.
Il y avait un vote depuis l’élaboration du sondage au 20 février 2019 à 03:41.
poll-id 1A062515511B5C3AE1290F1887CB0437

Discussion:

Pour le moment, le terme privilégié est «séparateur à vaste marge».

Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.

Anglais

support vector machine

Support vector machines are very powerful algorithms built on an extremely simple premise. Pick the two examples of your different classes that are closest to each other. In practice, this is typically done by finding the Euclidean distance between every training example. These two examples are your support vectors.

Draw a line through the space between the support vectors. This is your hyperplane.

Wiggle the hyperplane around until it maximizes the total distance between the plane and each support vector. This is your cushion.

https://opendatascience.com/machine-learning-for-beginners/

 Contributeurs : Claude Coulombe, admin