« Entropie croisée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 6 : Ligne 6 :
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
<br />
<br />


== Définition ==
== Définition ==
Généralisation de la perte logistique aux problèmes de classification à classes multiples. L'entropie croisée quantifie la différence entre deux distributions de probabilité. Voir aussi '''perplexité'''.
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
 
 
<br />
<br />


== Français ==
== Français ==
=== entropie croisée  <small>n.f.</small> ===
'''entropie croisée''' <small>n.f.</small>
<br />
<br />
<br />




Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
<br />
<br />
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia]


== Anglais ==
== Anglais ==


===  cross-entropy===
'''cross entropy'''
 
<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Version du 3 juin 2019 à 18:50

Domaine

Apprentissage profond


Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée n.f.



Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia

Anglais

cross entropy