« Entropie croisée » : différence entre les versions


m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> »)
m (Remplacement de texte — « Category:Google2 » par « <!-- Google --> »)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
<!-- vocabulaire2 -->
<!-- vocabulaire2 -->
[[Category:Google2]]
<!-- Google -->
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
<!-- Scotty2 -->
<!-- Scotty2 -->

Version du 3 juillet 2019 à 21:35


Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée n.f.

Anglais

cross entropy



Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source : Wikipédia

Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.