« Mini-lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
(Ajustement de quelques sections de la fiche.) Balise : Éditeur de wikicode 2017 |
||
Ligne 7 : | Ligne 7 : | ||
[[Catégorie:App-profond-livre]] | [[Catégorie:App-profond-livre]] | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
[[Category:Termino 2019]] | |||
<br /> | <br /> | ||
== Définition == | == Définition == | ||
Petit | Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage. | ||
Note | |||
La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage. | |||
<br /> | <br /> | ||
== Français == | == Français == | ||
'''mini-lot''' <small>n.m.</small> | |||
Ligne 22 : | Ligne 28 : | ||
== Anglais == | == Anglais == | ||
'''mini-batch''' | |||
'''minibatch''' | |||
Version du 2 juin 2019 à 14:49
Domaine
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Note
La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot n.m.
Anglais
mini-batch
minibatch
Source: Google machine learning glossary
Source:L'APPRENTISSAGE PROFOND
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche