« Séparateur à vaste marge » : différence entre les versions


(Ajustement de quelques sections de la fiche.)
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(45 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Domaine==
[[Category:Vocabulary2]]
[[Category:Vocabulaire]]
[[Category:Intelligence artificielle]] Intelligence artificielle<br />
[[Catégorie:Apprentissage automatique]] Apprentissage automatique<br />
[[Category:Coulombe]]
[[Category:Termino 2019]]
[[Catégorie:Scotty]]
==Définition==
==Définition==
Algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.
Le séparateur à vaste marge (SVM) est un algorithme d''''[[Apprentissage supervisé|apprentissage supervisé]]''' issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.


Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.


Note
Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un '''[[Réseau de neurones artificiels|réseau de neurones]]''' ou d'un modèle de mélanges gaussiens.


L’algorithme sépare deux classes avec l’idée que plus la séparation est large, plus la classification est robuste. Dans sa forme la plus simple, celle d’une séparation linéaire de deux classes séparables, l’algorithme sélectionne l'hyperplan qui sépare le jeu de données en deux de façon à maximiser la distance entre l’hyperplan et les données les plus proches. En utilisant l'astuce du noyau, l'algorithme peut être étendu en exploitant l'idée que des données, qui ne sont pas séparables linéairement dans un espace de dimension n, peuvent être séparables linéairement dans un espace de dimension supérieure à n.
==Compléments==
En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».
Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.
<hr/>
Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l''''[[Astuce du noyau| astuce du noyau]]''' permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.


==Français==
'''séparateur à vaste marge '''


Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
'''SVM'''


'''machine à vecteurs de support''' <small>(<i>usage plus rare</i>)</small> 


Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des séparateurs à vaste marge peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
'''classificateur à vaste marge''' <small>(<i>usage plus rare</i>)</small>


'''classificateur à large marge''' <small>(<i>usage plus rare</i>)</small>


Le terme ''séparateur à vaste marge'' a l'avantage de conserver l'acronyme ''SVM'' tout en décrivant bien le concept sous-jacent.
'''méthode à noyau'''


==Anglais==
On dit ''séparateur à vaste marge'' et non ''séparateur à vastes marges'' car il n'y a qu'une seule marge.
'''support vector machine'''
 
 
==Français==
 
'''séparateur à vaste marge '''


'''SVM'''
'''SVM'''


'''machine à vecteurs de support'''
'''kernel method'''
==Sources==


Source: Canu, Stéphane. (2006). ''Apprentissage et noyaux : séparateur à vaste marge (SVM)''. Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.


Source: Lebrun, Gilles (2006). ''Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge''), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.


Source : Wikipedia, https://www.wikiwand.com/fr/Machine_%C3%A0_vecteurs_de_support, consulté le 5 juin 2019.
Source: Kharroubi, Jamal (2002). ''Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur'', thèse de doctorat, Télécom ParisTech, 129 pages.


Source : Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.
Source: Fernandez, Rodrigo (1999). ''Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications'', thèse de doctorat. Université Paris 13.


Source : Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.
[https://opendatascience.com/machine-learning-for-beginners/ Source: Opendatascience.com]


Source : Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.
[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support Source: Wikipedia, ''Machine à vecteurs de support'']


Source : Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.
[[Utilisateur:Patrickdrouin  | Source: Termino]]


</small><br> {{Modèle:101}}<br>




==Anglais==
'''support vector machine'''


''SVM''


[https://opendatascience.com/machine-learning-for-beginners/  Source : opendatascience.com ]
[[Category:Termino 2019]]
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support    Source : Wikipedia ]
[[Catégorie:101]]

Dernière version du 28 janvier 2024 à 14:05

Définition

Le séparateur à vaste marge (SVM) est un algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.

Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.

Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.

Compléments

En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».

Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.


Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l' astuce du noyau permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.

Français

séparateur à vaste marge

SVM

machine à vecteurs de support (usage plus rare)

classificateur à vaste marge (usage plus rare)

classificateur à large marge (usage plus rare)

méthode à noyau

Anglais

support vector machine

SVM

kernel method

Sources

Source: Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.

Source: Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.

Source: Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.

Source: Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.

Source: Opendatascience.com

Source: Wikipedia, Machine à vecteurs de support

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »