« Mini-lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(6 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | ||
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage. | |||
==Français== | ==Français== | ||
'''mini-lot''' | '''mini-lot''' | ||
==Anglais== | ==Anglais== | ||
Ligne 16 : | Ligne 12 : | ||
'''minibatch''' | '''minibatch''' | ||
==Sources== | |||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | |||
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary''] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
Source: | |||
[ | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Apprentissage profond]] | |||
[[ |
Dernière version du 11 octobre 2024 à 08:32
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot
Anglais
mini-batch
minibatch
Sources
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche