« Mini-lot » : différence entre les versions
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> ») |
m (Remplacement de texte — « Category:Google2 » par « <!-- Google --> ») |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
<!-- vocabulaire2 --> | <!-- vocabulaire2 --> | ||
<!-- Google --> | |||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Catégorie:App-profond-livre2]] | [[Catégorie:App-profond-livre2]] |
Version du 3 juillet 2019 à 21:26
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot n.m.
Anglais
mini-batch
minibatch
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Google machine learning glossary
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche