« Entropie croisée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(7 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Catégorie:100]]
== Définition ==
== Définition ==
Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.
[[Fonction de coût]] utilisée pour la [[classification automatique]] qui a pour but de quantifier la différence entre deux [[distribution de probabilité|distributions de probabilités]].


== Français ==
== Français ==
'''entropie croisée'''  <small>loc. nom. fém.</small>
'''entropie croisée'''   


== Anglais ==
== Anglais ==
'''cross entropy'''
'''cross entropy'''


==Sources==
Source : Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.


<small>
[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source : Wikipédia, ''Entropie croisée'']


Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.
[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source : ''Glossaire de l'apprentissage machine,'' Google, consulté le 20 mai 2019.]


[https://fr.wikipedia.org/wiki/Entropie_crois%C3%A9e Source: Wikipédia, ''Entropie croisée'']
[[Utilisateur:Patrickdrouin  | Source: Termino]]


[https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, Source: ''Glossaire de l'apprentissage machine,'' Google, consulté le 20 mai 2019.]
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Apprentissage profond]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]

Dernière version du 11 octobre 2024 à 08:31

Définition

Fonction de coût utilisée pour la classification automatique qui a pour but de quantifier la différence entre deux distributions de probabilités.

Français

entropie croisée

Anglais

cross entropy

Sources

Source : Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source : Wikipédia, Entropie croisée

Source : Glossaire de l'apprentissage machine, Google, consulté le 20 mai 2019.

Source: Termino