« Estimation contrastive bruitée » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
(nouveau terme)
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]] Vocabulary
[[Category:Vocabulary]]<br>
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Apprentissage automatique]]Apprentissage automatique<br>
[[Catégorie:Méthode d'échantillonnage]]Méthode d'échantillonnage<br>
[[Category:Coulombe]]Coulombe<br>
[[Catégorie:Scotty]]<br>
   
   
== Définition ==
== Définition ==


L'estimation contrastive bruitée est une méthode d'échantillonnage généralement utilisée pour entraîner des classificateurs avec un grand nombre de classes en sortie. En effet, le calcul de la fonction softmax sur un grand nombre de classes est extrêmement coûteux. L'estimation contrastive bruitée permet de ramener le problème à un problème de classification binaire en apprenant au classificateur à faire la distinction entre les échantillons de la distribution réelle et une distribution bruitée générée artificiellement.


== Français ==
estimation contrastive bruitée
 
Source:


== Français ==
https://tel.archives-ouvertes.fr/tel-02054671/document


== Anglais ==
== Anglais ==



Version du 30 avril 2019 à 00:31

Domaine


Intelligence artificielle
Apprentissage automatique
Méthode d'échantillonnage
Coulombe

Définition

L'estimation contrastive bruitée est une méthode d'échantillonnage généralement utilisée pour entraîner des classificateurs avec un grand nombre de classes en sortie. En effet, le calcul de la fonction softmax sur un grand nombre de classes est extrêmement coûteux. L'estimation contrastive bruitée permet de ramener le problème à un problème de classification binaire en apprenant au classificateur à faire la distinction entre les échantillons de la distribution réelle et une distribution bruitée générée artificiellement.

Français

estimation contrastive bruitée

Source:

https://tel.archives-ouvertes.fr/tel-02054671/document

Anglais

Noise-contrastive estimation (NCE)

Noise-contrastive estimation is a sampling loss typically used to train classifiers with a large output vocabulary. Calculating the softmax over a large number of possible classes is prohibitively expensive. Using NCE, we can reduce the problem to binary classification problem by training the classifier to discriminate between samples from the “real” distribution and an artificially generated noise distribution. • Noise-contrastive estimation: A new estimation principle for unnormalized statistical models • Learning word embeddings efficiently with noise-contrastive estimation