« Mini-lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Ligne 8 : | Ligne 7 : | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
== Définition == | == Définition == | ||
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | ||
Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage. | Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage. | ||
== Français == | == Français == | ||
'''mini-lot''' <small>n.m.</small> | '''mini-lot''' <small>n.m.</small> | ||
== Anglais == | |||
'''mini-batch''' | |||
'''minibatch''' | |||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] |
Version du 15 juin 2019 à 21:19
Domaine
Apprentissage profond
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot n.m.
Anglais
mini-batch
minibatch
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Google machine learning glossary
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche