Erreur entropie croisée catégorielle


Révision datée du 26 février 2018 à 19:26 par Pitpitt (discussion | contributions) (Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Domaine

Catégorie Démo Apprentissage profond

Définition

Termes privilégiés

Anglais

Categorical Cross-Entropy Loss

The categorical cross-entropy loss is also known as the negative log likelihood. It is a popular loss function for categorization problems and measures the similarity between two probability distributions, typically the true labels and the predicted labels. It is given by L = -sum(y * log(y_prediction)) where y is the probability distribution of true labels (typically a one-hot vector) and y_prediction is the probability distribution of the predicted labels, often coming from a softmax.

Contributeurs: Imane Meziani, wiki