« Mini-lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(19 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
== Définition == | |||
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | ||
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage. | |||
== Français == | ==Français== | ||
'''mini-lot''' | '''mini-lot''' | ||
== Anglais == | ==Anglais== | ||
'''mini-batch''' | '''mini-batch''' | ||
'''minibatch''' | '''minibatch''' | ||
==Sources== | |||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | |||
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary''] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[ | |||
[[ |
Dernière version du 11 octobre 2024 à 08:32
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot
Anglais
mini-batch
minibatch
Sources
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche