« Fonction exponentielle normalisée » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulary]] Vocabulary
[[Category:Vocabulaire]]Vocabulaire<br />
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
 
<br />
 
== Définition ==
== Définition ==
Fonction qui fournit les probabilités pour chaque classe possible dans un modèle de classification à classes multiples. La somme des probabilités est de 1. Par exemple, softmax peut déterminer que la probabilité qu'une image particulière soit celle d'un chien est de 0,9, d'un chat de 0,08 et d'un cheval de 0,02. Également appelé softmax complet.


À comparer à l'échantillonnage de candidats.




<br />
== Termes privilégiés ==
== Termes privilégiés ==
=== softmax===
===softmax complet===


<br />
== Anglais ==
== Anglais ==


'''Softmax'''
===  softmax===
 
===full softmax ===
 
<br/>
The softmax function is typically used to convert a vector of raw scores into class probabilities at the output layer of a Neural Network used for classification. It normalizes the scores by exponentiating and dividing by a normalization constant. If we are dealing with a large number of classes, a large vocabulary in Machine Translation for example, the normalization constant is expensive to compute. There exist various alternatives to make the computation more efficient, including Hierarchical Softmax or using a sampling-based loss such as NCE.
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Version du 23 mars 2018 à 19:48

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Fonction qui fournit les probabilités pour chaque classe possible dans un modèle de classification à classes multiples. La somme des probabilités est de 1. Par exemple, softmax peut déterminer que la probabilité qu'une image particulière soit celle d'un chien est de 0,9, d'un chat de 0,08 et d'un cheval de 0,02. Également appelé softmax complet.

À comparer à l'échantillonnage de candidats.



Termes privilégiés

softmax

softmax complet


Anglais

softmax

full softmax




Source: Google machine learning glossary