« Séparateur à vaste marge » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Intelligence artificielle]] | |||
[[Catégorie:Apprentissage automatique]] | |||
[[Category:Intelligence artificielle]] | |||
[[Catégorie:Apprentissage automatique]] | |||
[[Category:Coulombe]] | [[Category:Coulombe]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
Ligne 16 : | Ligne 13 : | ||
L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n. | L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n. | ||
Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. | Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. | ||
Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens. | Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens. | ||
Le terme ''séparateur à vaste marge'' a l'avantage de conserver l'acronyme ''SVM'' tout en décrivant bien le concept sous-jacent. | Le terme ''séparateur à vaste marge'' a l'avantage de conserver l'acronyme ''SVM'' tout en décrivant bien le concept sous-jacent. | ||
On dit ''séparateur à vaste marge'' et non ''séparateur à vastes marges'' car il n'y a qu'une seule marge. | On dit ''séparateur à vaste marge'' et non ''séparateur à vastes marges'' car il n'y a qu'une seule marge. | ||
==Français== | ==Français== | ||
'''séparateur à vaste marge ''' | '''séparateur à vaste marge ''' | ||
Ligne 38 : | Ligne 29 : | ||
'''machine à vecteurs de support''' | '''machine à vecteurs de support''' | ||
==Anglais== | |||
'''support vector machine''' | |||
''SVM'' | |||
<small> | |||
Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019. | Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019. | ||
Ligne 51 : | Ligne 50 : | ||
Version du 17 juin 2019 à 21:24
Définition
Algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.
Note
L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n.
Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.
On dit séparateur à vaste marge et non séparateur à vastes marges car il n'y a qu'une seule marge.
Français
séparateur à vaste marge
SVM
machine à vecteurs de support
Anglais
support vector machine
SVM
Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019.
Source : Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.
Source : Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.
Source : Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.
Source : Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki