« Fonction exponentielle normalisée » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵↵ » par «   »)
 
(30 versions intermédiaires par 6 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />


<br />
==Français==
'''fonction exponentielle normalisée'''   


== Définition ==
'''fonction softmax'''
Fonction qui fournit les probabilités pour chaque classe possible dans un modèle de classification à classes multiples. La somme des probabilités est de 1. Par exemple, softmax peut déterminer que la probabilité qu'une image particulière soit celle d'un chien est de 0,9, d'un chat de 0,08 et d'un cheval de 0,02. Également appelé softmax complet.


À comparer à l'échantillonnage de candidats.
==Anglais==
'''softmax'''


'''full softmax '''


<br />
== Termes privilégiés ==
=== softmax===
===softmax complet===


<br />
==Sources==
== Anglais ==


===  softmax===
Source: Droniou, Alain (2015). ''Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome'', thèse de doctorat, Université Pierre et Marie
===full softmax ===
Curie - Paris VI, 201 pages.
<br/>
 
<br/>
Source: Azencott, Chloé-Agathe (2018). ''Introduction au Machine Learning'', Paris, Dunod, 240 pages.
<br/>
 
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
<br/>
 
<br/>
[https://fr.wikipedia.org/wiki/Fonction_softmax Source: Wikipédia, ''Fonction softmax'']
<br/>
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]
 
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category: Termino 2019]]

Dernière version du 29 janvier 2024 à 13:40

Définition

Généralisation de la fonction logistique où chaque entrée de la fonction est normalisée, c'est-à-dire divisée par la somme des évaluations de la fonction logistique sur l'ensemble des entrées du domaine de la fonction.

Français

fonction exponentielle normalisée

fonction softmax

Anglais

softmax

full softmax


Sources

Source: Droniou, Alain (2015). Apprentissage de représentations et robotique développementale : quelques apports de l’apprentissage profond pour la robotique autonome, thèse de doctorat, Université Pierre et Marie Curie - Paris VI, 201 pages.

Source: Azencott, Chloé-Agathe (2018). Introduction au Machine Learning, Paris, Dunod, 240 pages.

Source: Google machine learning glossary

Source: Wikipédia, Fonction softmax

Source: Termino