« Entropie croisée » : différence entre les versions
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
|||
(28 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
[[Fonction de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]]. | |||
== Français == | |||
'''entropie croisée''' | |||
== Anglais == | |||
== | '''cross entropy''' | ||
==Sources== | |||
Source : Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | |||
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia, ''Entropie croisée''] | |||
= | [https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : ''Glossaire de l'apprentissage machine,'' Google, consulté le 20 mai 2019.] | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[ | |||
Dernière version du 11 octobre 2024 à 08:31
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée
Anglais
cross entropy
Sources
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia, Entropie croisée
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki