« Entropie croisée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
Ligne 17 : Ligne 16 :




<small>


Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
<br />
 
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia]
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia]
<br />
 
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.]
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.]

Version du 17 juin 2019 à 14:36


Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée n.f.

Anglais

cross entropy



Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source : Wikipédia

Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.