« Échantillonnage de candidats » : différence entre les versions


m (Remplacement de texte — « <!-- vocabulaire2 --> » par « <!-- Vocabulaire --> »)
Aucun résumé des modifications
 
(11 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
== Définition ==
<!-- Vocabulaire -->
Optimisation réalisée lors de l'apprentissage, dans laquelle une probabilité est calculée pour toutes les étiquettes positives, en utilisant par exemple [[softmax]], mais seulement pour un [[échantillon aléatoire]] d'étiquettes négatives.
<!-- Google -->
[[Category:Apprentissage profond]]
<!-- Scotty2 -->


== Définition ==
Si un exemple est étiqueté beagle et chien, l'échantillonnage de candidats calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoire des classes restantes (chat, sucette, clôture).  
Optimisation réalisée lors de l'apprentissage, dans laquelle une probabilité est calculée pour toutes les étiquettes positives, en utilisant par exemple softmax, mais seulement pour un échantillon aléatoire d'étiquettes négatives. Si un exemple est étiqueté beagle et chien, l'échantillonnage de candidats calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoire des classes restantes (chat, sucette, clôture).  


== Français ==
== Français ==
''' échantillonnage de candidats n.m.'''
'''échantillonnage de candidats'''    


== Anglais ==
== Anglais ==
'''candidate sampling'''


''' candidate sampling  '''
==Sources==
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary ]


 
[[Category:GRAND LEXIQUE FRANÇAIS]]
<small>
[[Category:Apprentissage profond]]
 
 
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]

Dernière version du 22 mars 2024 à 17:58

Définition

Optimisation réalisée lors de l'apprentissage, dans laquelle une probabilité est calculée pour toutes les étiquettes positives, en utilisant par exemple softmax, mais seulement pour un échantillon aléatoire d'étiquettes négatives.

Si un exemple est étiqueté beagle et chien, l'échantillonnage de candidats calcule les probabilités prédites et les termes de pertes correspondants pour les sorties de classe beagle et chien, en plus d'un sous-ensemble aléatoire des classes restantes (chat, sucette, clôture).

Français

échantillonnage de candidats

Anglais

candidate sampling

Sources

Source : Google machine learning glossary