« Séparateur à vaste marge » : différence entre les versions


m (Pitpitt a déplacé la page Support vector machine vers Séparateur à vaste marge)
(Ajustement de quelques sections de la fiche.)
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==
[[Category:Vocabulary2]]
[[Category:Vocabulary2]]
[[Category:Intelligence artificielle]]
[[Category:Vocabulaire]]
Intelligence artificielle<br />
[[Category:Intelligence artificielle]] Intelligence artificielle<br />
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Apprentissage automatique]] Apprentissage automatique<br />
Apprentissage automatique<br />
[[Category:Coulombe]]
[[Category:Coulombe]]<br />
 
[[Category:Termino 2019]]
[[Catégorie:Scotty]]
[[Catégorie:Scotty]]




==Définition==
==Définition==
Algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.
Note
L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n.


Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.


Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.


Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
 
Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
 
 
Le terme ''séparateur à vaste marge'' a l'avantage de conserver l'acronyme ''SVM'' tout en décrivant bien le concept sous-jacent.
 
On dit ''séparateur à vaste marge'' et non ''séparateur à vastes marges'' car il n'y a qu'une seule marge.




Ligne 22 : Ligne 35 :
'''séparateur à vaste marge '''
'''séparateur à vaste marge '''


'''classificateur à vaste marge'''
'''SVM'''
 
'''machine à vecteurs de support'''
 
 
 
Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019.
 
Source : Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.
 
Source : Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.
 
Source : Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.
 
Source : Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.


''Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.''<br />
''On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.''




Ligne 31 : Ligne 56 :
'''support vector machine'''
'''support vector machine'''


''SVM''


[https://opendatascience.com/machine-learning-for-beginners/  Source : opendatascience.com ]
[https://opendatascience.com/machine-learning-for-beginners/  Source : opendatascience.com ]


[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support    Source : Wikipedia ]
[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support    Source : Wikipedia ]

Version du 6 juin 2019 à 21:36

Domaine

Intelligence artificielle
Apprentissage automatique


Définition

Algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.


Note

L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n.


Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.


Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.


Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.


On dit séparateur à vaste marge et non séparateur à vastes marges car il n'y a qu'une seule marge.


Français

séparateur à vaste marge

SVM

machine à vecteurs de support


Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019.

Source : Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.

Source : Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.

Source : Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.

Source : Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.


Anglais

support vector machine

SVM

Source : opendatascience.com

Source : Wikipedia