« Erreur entropie croisée catégorielle » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Aucun résumé des modifications
 
(14 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
[[category:Vocabulary]]  Vocabulary
[[Catégorie:Apprentissage profond]] Apprentissage profond
== Définition ==
== Définition ==
Mesure de la performance d’un modèle ou d'un algorithme de classification en apprentissage automatique; qui se base sur l’[[entropie croisée]]. On parle ici d’étiquette ou de variable catégorielle.


Voir: [[Étiquette catégorielle]]  et [[Variable catégorielle]] .


== Français ==
'''erreur d'entropie croisée catégorielle'''
   
   


== Français ==
== Anglais ==
== Anglais ==
'''categorical cross-entropy loss'''




'''Categorical Cross-Entropy Loss'''
[[Catégorie:Apprentissage profond]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
The categorical cross-entropy loss is also known as the negative log likelihood. It is a popular loss function for categorization problems and measures the similarity between two probability distributions, typically the true labels and the predicted labels. It is given by L = -sum(y * log(y_prediction)) where y is the probability distribution of true labels (typically a one-hot vector) and y_prediction is the probability distribution of the predicted labels, often coming from a softmax.

Dernière version du 6 décembre 2022 à 08:53

Définition

Mesure de la performance d’un modèle ou d'un algorithme de classification en apprentissage automatique; qui se base sur l’entropie croisée. On parle ici d’étiquette ou de variable catégorielle.

Voir: Étiquette catégorielle et Variable catégorielle .

Français

erreur d'entropie croisée catégorielle


Anglais

categorical cross-entropy loss



Contributeurs: Imane Meziani, wiki