« Entropie croisée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(9 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités. | [[Fonction de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]]. | ||
== Français == | == Français == | ||
'''entropie croisée''' | '''entropie croisée''' | ||
== Anglais == | == Anglais == | ||
'''cross entropy''' | '''cross entropy''' | ||
==Sources== | |||
Source : Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages. | |||
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia, ''Entropie croisée''] | |||
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : ''Glossaire de l'apprentissage machine,'' Google, consulté le 20 mai 2019.] | |||
[[Utilisateur:Patrickdrouin | Source: Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[ | |||
[[ |
Dernière version du 11 octobre 2024 à 08:31
Définition
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
Français
entropie croisée
Anglais
cross entropy
Sources
Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source : Wikipédia, Entropie croisée
Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.
Contributeurs: Claire Gorjux, Jacques Barolet, Julie Roy, wiki