« Entropie croisée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 7 : | Ligne 7 : | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
== Définition == | == Définition == | ||
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités. | Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités. | ||
== Français == | == Français == | ||
'''entropie croisée''' <small>n.f.</small> | '''entropie croisée''' <small>n.f.</small> | ||
== Anglais == | |||
'''cross entropy''' | |||
Ligne 25 : | Ligne 24 : | ||
<br /> | <br /> | ||
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.] | [https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.] | ||
Version du 14 juin 2019 à 21:11
Domaine
Apprentissage profond
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée n.f.
Anglais
cross entropy
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki