« Fonction exponentielle normalisée » : différence entre les versions
m (Remplacement de texte — « Catégorie:100 » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction. | Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction. | ||
Ligne 18 : | Ligne 12 : | ||
'''full softmax ''' | '''full softmax ''' | ||
Ligne 33 : | Ligne 26 : | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[[Category: Termino 2019]] |
Version du 6 mai 2020 à 21:12
Définition
Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.
Français
fonction exponentielle normalisée loc. nom. f.
fonction softmax loc. nom. f.
Anglais
softmax
full softmax
Source: Droniou, Alain (2015). Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome, thèse de doctorat, Université Pierre et Marie Curie - Paris VI, 201 pages.
Source: Azencott, Chloé-Agathe (2018). Introduction au Machine Learning, Paris, Dunod, 240 pages.
Source: Google machine learning glossary
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki, Robert Meloche