« Séparateur à vaste marge » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(53 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
Le séparateur à vaste marge (SVM) est un algorithme d''''[[Apprentissage supervisé|apprentissage supervisé]]''' issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression. 


[[Category:Vocabulary]]  Vocabulary
Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.


__NOTOC__
Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un '''[[Réseau de neurones artificiels|réseau de neurones]]''' ou d'un modèle de mélanges gaussiens.
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br/>
[[Category:Intelligence artificielle]]Intelligence artificielle<br/>
[[Category:Coulombe]]Coulombe<br/>
<br />


== Définition ==
==Compléments==
En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».
Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.
<hr/>
Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l''''[[Astuce du noyau| astuce du noyau]]''' permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.
 
==Français==
'''séparateur à vaste marge '''


Les séparateurs à vaste marge (ou machines à vecteurs de support, en anglais support vector machine, SVM) sont un ensemble d'algorithmes d'apprentissage supervisé destinées à résoudre des problèmes de classification et de régression. Les SVM sont une généralisation des classificateurs linéaires.
'''SVM'''


Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique.
'''machine à vecteurs de support''' <small>(<i>usage plus rare</i>)</small> 


Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance1…). Selon les données, la performance des machines à vecteurs de support peut être du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.
'''classificateur à vaste marge''' <small>(<i>usage plus rare</i>)</small>


Source:
'''classificateur à large marge''' <small>(<i>usage plus rare</i>)</small>


https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support
'''méthode à noyau'''
<br />


== Français ==
==Anglais==
<poll>
'''support vector machine'''
Choisissez parmi ces termes proposés :
séparateur à vaste marge
machine à vecteurs de support
classificateur à vaste marge
</poll>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «séparateur à vaste marge».
<br/>


Discussion:
'''SVM'''


Le terme séparateur à vaste marge a l'avantage de conserver l'acronyme SVM tout en décrivant bien le concept.<br/>
'''kernel method'''
On dit «à vaste marge» et non «à vastes marges» car il y a une marge unique.
==Sources==
<br/>


== Anglais ==
Source: Canu, Stéphane. (2006). ''Apprentissage et noyaux : séparateur à vaste marge (SVM)''. Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.
===support vector machine===


<br/>
Source: Lebrun, Gilles (2006). ''Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge''), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.
<br/>


<br/>
Source: Kharroubi, Jamal (2002). ''Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur'', thèse de doctorat, Télécom ParisTech, 129 pages.


<br/>
Source: Fernandez, Rodrigo (1999). ''Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications'', thèse de doctorat. Université Paris 13.
<br/>
<br/>


[https://opendatascience.com/machine-learning-for-beginners/ Source: Opendatascience.com]


[https://fr.wikipedia.org/wiki/Machine_%C3%A0_vecteurs_de_support Source: Wikipedia, ''Machine à vecteurs de support'']


[[Utilisateur:Patrickdrouin  | Source: Termino]]


</small><br> {{Modèle:101}}<br>




== Définition ==




== Français ==


[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
== Anglais ==

Dernière version du 11 octobre 2024 à 08:33

Définition

Le séparateur à vaste marge (SVM) est un algorithme d'apprentissage supervisé issu d'une généralisation des classificateurs linéaires et destiné à résoudre des problèmes de classification et de régression.

Créés au milieu des années 90 par Vladimir Vapnik, les SVM ont été appliqués à de nombreux domaines: bio-informatique, recherche d'information, vision par ordinateur, finance, etc.

Selon les données, la performance des séparateurs à vaste marge peut être parfois du même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens.

Compléments

En français, on préfère le terme « séparateur à vaste marge » qui conserve l'acronyme «SVM», aussi parfois « machine à vecteurs de support », « classificateur à vaste marge » ou « classificateur à large marge ».

Note: on dit séparateur à « vaste marge » et non séparateur à « vastes marges » car il n'y a qu'une seule marge.


Les SVM reposent sur une mesure de similarité calculé avec un noyau (en anglais, kernel). On dira que les SVM font partie des méthodes à noyau. En apprentissage automatique, l' astuce du noyau permet d'utiliser un classificateur linéaire pour résoudre un problème non linéaire.

Français

séparateur à vaste marge

SVM

machine à vecteurs de support (usage plus rare)

classificateur à vaste marge (usage plus rare)

classificateur à large marge (usage plus rare)

méthode à noyau

Anglais

support vector machine

SVM

kernel method

Sources

Source: Canu, Stéphane. (2006). Apprentissage et noyaux : séparateur à vaste marge (SVM). Revue de l'Electricité et de l'Electronique. -. 69. 10.3845/ree.2006.062.

Source: Lebrun, Gilles (2006). Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs à Vaste Marge), thèse de doctorat, Université de Caen Basse-Normandie, 311 pages.

Source: Kharroubi, Jamal (2002). Étude de techniques de classement ”Machines à vecteurs supports” pour la vérification automatique du locuteur, thèse de doctorat, Télécom ParisTech, 129 pages.

Source: Fernandez, Rodrigo (1999). Machines a vecteurs de support pour la reconnaissance des formes : proprietes et applications, thèse de doctorat. Université Paris 13.

Source: Opendatascience.com

Source: Wikipedia, Machine à vecteurs de support

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »