« Entropie croisée » : différence entre les versions
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> ») |
m (Remplacement de texte — « Category:Google2 » par « <!-- Google --> ») |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
<!-- vocabulaire2 --> | <!-- vocabulaire2 --> | ||
<!-- Google --> | |||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
<!-- Scotty2 --> | <!-- Scotty2 --> |
Version du 3 juillet 2019 à 21:35
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée n.f.
Anglais
cross entropy
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki