« Entropie croisée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 7 : Ligne 7 :
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
<br />


== Définition ==
== Définition ==
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
<br />


== Français ==
== Français ==
'''entropie croisée'''  <small>n.f.</small>
'''entropie croisée'''  <small>n.f.</small>
<br />
 
<br />
 
<br />
== Anglais ==
'''cross entropy'''




Ligne 25 : Ligne 24 :
<br />
<br />
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.]
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.]
== Anglais ==
'''cross entropy'''

Version du 14 juin 2019 à 21:11

Domaine

Apprentissage profond

Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée n.f.


Anglais

cross entropy


Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.