« Échantillonnage de candidats » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google]]Google<br />
[[Category:Vocabulaire2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Google2]]
[[Category:9]]
[[Category:Apprentissage profond2]]
[[Category:scotty]]
[[Category:scotty2]]


<br />
<br />

Version du 18 octobre 2018 à 10:52

Domaine


Définition

Optimisation réalisée lors de l'apprentissage, dans laquelle une probabilité est calculée pour toutes les étiquettes positives, en utilisant par exemple softmax, mais seulement pour un échantillon aléatoire d'étiquettes négatives. Si un exemple est étiqueté beagle et chien, l'échantillonnage de candidats calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoire des classes restantes (chat, sucette, clôture). Le but est que les classes négatives puissent apprendre à partir d'un renforcement négatif moins fréquent tant que les classes positives sont correctement renforcées positivement, ce qui est effectivement observé empiriquement. L'intérêt de l'échantillonnage des candidats est d'améliorer l'efficacité du calcul en ne calculant pas les prédictions pour tous les négatifs.



Termes privilégiés

échantillonnage de candidats


Anglais

candidate sampling




Source: Google machine learning glossary