« Entropie croisée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(21 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | |||
[[Fonction de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]]. | |||
== | == Français == | ||
'''entropie croisée''' | |||
== | == Anglais == | ||
'''cross entropy''' | |||
== | ==Sources== | ||
''' | Source : Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | ||
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia, ''Entropie croisée''] | |||
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : ''Glossaire de l'apprentissage machine,'' Google, consulté le 20 mai 2019.] | |||
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.] | |||
[[Utilisateur:Patrickdrouin | Source: Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] |
Dernière version du 11 octobre 2024 à 08:31
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée
Anglais
cross entropy
Sources
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia, Entropie croisée
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki