« Entropie croisée » : différence entre les versions
m (Remplacement de texte — « Category:Vocabulaire2 » par « <!-- vocabulaire2 --> ») |
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> ») |
||
Ligne 3 : | Ligne 3 : | ||
[[Category:Google2]] | [[Category:Google2]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
<!-- Scotty2 --> | |||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
Version du 2 juillet 2019 à 12:12
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée n.f.
Anglais
cross entropy
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki