« Séparateur à vaste marge » : différence entre les versions


(Svp, détruire l'autre entrée SVM en anglais qui est redondante)
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(49 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Domaine==
==Définition==
[[Category:Vocabulary]]
Le séparateur à vaste marge (SVM) est un algorithme d''''[[Apprentissage supervisé|apprentissage supervisé]]''' issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression. 
<br />
 
[[Category:Intelligence artificielle]]
Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.
Intelligence artificielle<br />
[[Catégorie:Apprentissage automatique]]
Apprentissage automatique<br />
[Category:Coulombe]]Coulombe<br />
[[Catégorie:Scotty]]
<br />
<br />


==Définition==
Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un '''[[Réseau de neurones artificiels|réseau de neurones]]''' ou d'un modèle de mélanges gaussiens.


Les séparateurs à vaste marge (SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.
==Compléments==
En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».
Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.
<hr/>
Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l''''[[Astuce du noyau| astuce du noyau]]''' permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.


Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
==Français==
'''séparateur à vaste marge '''


Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
'''SVM'''  


Source:
'''machine à vecteurs de support''' <small>(<i>usage plus rare</i>)</small> 


https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support
'''classificateur à vaste marge''' <small>(<i>usage plus rare</i>)</small>
<br />


==Français==
'''classificateur à large marge''' <small>(<i>usage plus rare</i>)</small>
<poll>
Choisissez parmi ces termes proposés :
séparateur à vaste marge
machine à vecteurs de support
classificateur à vaste marge
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «séparateur à vaste marge».


Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept sous-jacent.<br />
'''méthode à noyau'''
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.
<br />


==Anglais==
==Anglais==
===support vector machine===
'''support vector machine'''
 
'''SVM'''
 
'''kernel method'''
==Sources==
 
Source: Canu, Stéphane. (2006). ''Apprentissage et noyaux : séparateur à vaste marge (SVM)''. Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.
 
Source: Lebrun, Gilles (2006). ''Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge''), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.
 
Source: Kharroubi, Jamal (2002). ''Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur'', thèse de doctorat, Télécom ParisTech, 129 pages.
 
Source: Fernandez, Rodrigo (1999). ''Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications'', thèse de doctorat. Université Paris 13.
 
[https://opendatascience.com/machine-learning-for-beginners/ Source: Opendatascience.com]
 
[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support Source: Wikipedia, ''Machine à vecteurs de support'']
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]
 
</small><br> {{Modèle:101}}<br>


Support vector machines are very powerful algorithms built on an extremely simple premise. Pick the two examples of your different classes that are closest to each other. In practice, this is typically done by finding the Euclidean distance between every training example. These two examples are your support vectors.


Draw a line through the space between the support vectors. This is your hyperplane.


Wiggle the hyperplane around until it maximizes the total distance between the plane and each support vector. This is your cushion.


https://opendatascience.com/machine-learning-for-beginners/
[[Category:Termino 2019]]
<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br />
[[Catégorie:101]]

Dernière version du 28 janvier 2024 à 14:05

Définition

Le séparateur à vaste marge (SVM) est un algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.

Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.

Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.

Compléments

En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».

Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.


Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l' astuce du noyau permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.

Français

séparateur à vaste marge

SVM

machine à vecteurs de support (usage plus rare)

classificateur à vaste marge (usage plus rare)

classificateur à large marge (usage plus rare)

méthode à noyau

Anglais

support vector machine

SVM

kernel method

Sources

Source: Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.

Source: Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.

Source: Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.

Source: Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.

Source: Opendatascience.com

Source: Wikipedia, Machine à vecteurs de support

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »