« Erreur entropie croisée catégorielle » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== en construction ==  
== en construction ==  
[[category:Vocabulary]] Vocabulary
[[category:Vocabulary]]  
 
[[Catégorie:Apprentissage profond]]  
[[Catégorie:Apprentissage profond]] Apprentissage profond
   
   
== Définition ==
== Définition ==

Version du 19 août 2019 à 09:52

en construction

Définition

Français

Anglais

Categorical Cross-Entropy Loss

The categorical cross-entropy loss is also known as the negative log likelihood. It is a popular loss function for categorization problems and measures the similarity between two probability distributions, typically the true labels and the predicted labels. It is given by L = -sum(y * log(y_prediction)) where y is the probability distribution of true labels (typically a one-hot vector) and y_prediction is the probability distribution of the predicted labels, often coming from a softmax.

Contributeurs: Imane Meziani, wiki