« Entropie croisée » : différence entre les versions


m (Remplacement de texte — « <!-- vocabulaire2 --> » par « <!-- Vocabulaire --> »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 10 : Ligne 10 :


== Français ==
== Français ==
'''entropie croisée'''  <small>n.f.</small>
'''entropie croisée'''  n.f.


== Anglais ==
== Anglais ==
Ligne 20 : Ligne 20 :
<small>
<small>


Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.


[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia]
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source: Wikipédia]


[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.]
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source: ''Glossaire de l'apprentissage machine, Google'', consulté le 20 mai 2019.]

Version du 6 juillet 2019 à 15:50


Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée n.f.

Anglais

cross entropy



Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Wikipédia

Source: Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.