« Mini-lot » : différence entre les versions
m (Remplacement de texte — « <!-- vocabulaire2 --> » par « <!-- Vocabulaire --> ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 24 : | Ligne 24 : | ||
<small> | <small> | ||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'' ] | ||
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html Source:L'APPRENTISSAGE PROFOND] | [https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html Source:''L'APPRENTISSAGE PROFOND''] | ||
[[Utilisateur:Patrickdrouin | Source : Termino ]] | [[Utilisateur:Patrickdrouin | Source: Termino ]] |
Version du 6 juillet 2019 à 16:25
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot n.m.
Anglais
mini-batch
minibatch
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Google machine learning glossary
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche