« Erreur entropie croisée catégorielle » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 4 : Ligne 4 :
   
   
== Définition ==
== Définition ==
sert de mesure/métrique pour optimiser un algorithme d'apprentissage,
 


   
   


== Français ==
== Français ==
'''perte d'entropie croisée catégorique'''
'''erreur d'entropie croisée catégorielle'''
   
   
   
   
Ligne 16 : Ligne 15 :
   
   
== Anglais ==
== Anglais ==
 
'''categorical Cross-Entropy Loss'''
 
'''Categorical Cross-Entropy Loss'''
 
The categorical cross-entropy loss is also known as the negative log likelihood. It is a popular loss function for categorization problems and measures the similarity between two probability distributions, typically the true labels and the predicted labels. It is given by L = -sum(y * log(y_prediction)) where y is the probability distribution of true labels (typically a one-hot vector) and y_prediction is the probability distribution of the predicted labels, often coming from a softmax.

Version du 11 novembre 2022 à 15:22

en construction

Définition

sert de mesure/métrique pour optimiser un algorithme d'apprentissage,


Français

erreur d'entropie croisée catégorielle



Anglais

categorical Cross-Entropy Loss



Contributeurs: Imane Meziani, wiki