« Fonction exponentielle normalisée » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
m (Remplacement de texte : « ↵↵↵↵ » par «   »)
 
(27 versions intermédiaires par 6 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Vocabulaire2]]
==Français==
[[Category:Google2]]
'''fonction exponentielle normalisée'''   
[[Category:Apprentissage profond2]]
 
[[Category:scotty2]]
'''fonction softmax''' 
 
==Anglais==
'''softmax'''
 
'''full softmax '''
 
 
==Sources==
 
Source: Droniou, Alain (2015). ''Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome'', thèse de doctorat, Université Pierre et Marie
Curie - Paris VI, 201 pages.


== Définition ==
Source: Azencott, Chloé-Agathe (2018). ''Introduction au Machine Learning'', Paris, Dunod, 240 pages.  
Fonction qui fournit les probabilités pour chaque classe possible dans un modèle de classification à classes multiples. La somme des probabilités est de 1. Par exemple, softmax peut déterminer que la probabilité qu'une image particulière soit celle d'un chien est de 0,9, d'un chat de 0,08 et d'un cheval de 0,02. Également appelé softmax complet.


À comparer à l'échantillonnage de candidats.
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']


[https://fr.wikipedia.org/wiki/Fonction_softmax Source: Wikipédia, ''Fonction softmax'']


<br />
[[Utilisateur:Patrickdrouin  | Source: Termino]]
== Français ==
=== softmax===
===softmax complet===


<br />
== Anglais ==


===  softmax===
[[Category:GRAND LEXIQUE FRANÇAIS]]
===full softmax ===
[[Category:Apprentissage profond]]
<br/>
[[Category: Termino 2019]]
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 29 janvier 2024 à 12:40

Définition

Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.

Français

fonction exponentielle normalisée

fonction softmax

Anglais

softmax

full softmax


Sources

Source: Droniou, Alain (2015). Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome, thèse de doctorat, Université Pierre et Marie Curie - Paris VI, 201 pages.

Source: Azencott, Chloé-Agathe (2018). Introduction au Machine Learning, Paris, Dunod, 240 pages.

Source: Google machine learning glossary

Source: Wikipédia, Fonction softmax

Source: Termino