« Fonction exponentielle normalisée » : différence entre les versions


(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... »)
 
m (Remplacement de texte : « ↵↵↵↵ » par «   »)
 
(32 versions intermédiaires par 6 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[catégorie:Démo]] Catégorie Démo
Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.
[[Catégorie:Apprentissage profond]] Apprentissage profond
== Définition ==


==Français==
'''fonction exponentielle normalisée'''   


   
'''fonction softmax'''  


== Termes privilégiés ==
==Anglais==
'''softmax'''


'''full softmax '''
== Anglais ==


'''Softmax'''


==Sources==


The softmax function is typically used to convert a vector of raw scores into class probabilities at the output layer of a Neural Network used for classification. It normalizes the scores by exponentiating and dividing by a normalization constant. If we are dealing with a large number of classes, a large vocabulary in Machine Translation for example, the normalization constant is expensive to compute. There exist various alternatives to make the computation more efficient, including Hierarchical Softmax or using a sampling-based loss such as NCE.
Source: Droniou, Alain (2015). ''Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome'', thèse de doctorat, Université Pierre et Marie
Curie - Paris VI, 201 pages.
 
Source: Azencott, Chloé-Agathe (2018). ''Introduction au Machine Learning'', Paris, Dunod, 240 pages.
 
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
 
[https://fr.wikipedia.org/wiki/Fonction_softmax Source: Wikipédia, ''Fonction softmax'']
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]
 
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category: Termino 2019]]

Dernière version du 29 janvier 2024 à 12:40

Définition

Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.

Français

fonction exponentielle normalisée

fonction softmax

Anglais

softmax

full softmax


Sources

Source: Droniou, Alain (2015). Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome, thèse de doctorat, Université Pierre et Marie Curie - Paris VI, 201 pages.

Source: Azencott, Chloé-Agathe (2018). Introduction au Machine Learning, Paris, Dunod, 240 pages.

Source: Google machine learning glossary

Source: Wikipédia, Fonction softmax

Source: Termino