« Entropie croisée » : différence entre les versions
m (Remplacement de texte — « <!-- vocabulaire2 --> » par « <!-- Vocabulaire --> ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 10 : | Ligne 10 : | ||
== Français == | == Français == | ||
'''entropie croisée''' | '''entropie croisée''' n.f. | ||
== Anglais == | == Anglais == | ||
Ligne 20 : | Ligne 20 : | ||
<small> | <small> | ||
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages. | Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | ||
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia] | [https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source: Wikipédia] | ||
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.] | [https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source: ''Glossaire de l'apprentissage machine, Google'', consulté le 20 mai 2019.] |
Version du 6 juillet 2019 à 14:50
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée n.f.
Anglais
cross entropy
Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki