Échantillonnage de candidats


Révision datée du 23 mars 2018 à 20:05 par Pitpitt (discussion | contributions) (Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Optimisation réalisée lors de l'apprentissage, dans laquelle une probabilité est calculée pour toutes les étiquettes positives, en utilisant par exemple softmax, mais seulement pour un échantillon aléatoire d'étiquettes négatives. Si un exemple est étiqueté beagle et chien, l'échantillonnage de candidats calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoire des classes restantes (chat, sucette, clôture). Le but est que les classes négatives puissent apprendre à partir d'un renforcement négatif moins fréquent tant que les classes positives sont correctement renforcées positivement, ce qui est effectivement observé empiriquement. L'intérêt de l'échantillonnage des candidats est d'améliorer l'efficacité du calcul en ne calculant pas les prédictions pour tous les négatifs.



Termes privilégiés

échantillonnage de candidats


Anglais

candidate sampling




Source: Google machine learning glossary