« Mini-lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Google2]] | [[Category:Google2]] | ||
[[Category:Apprentissage | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Catégorie:App-profond-livre]] | [[Catégorie:App-profond-livre]] | ||
[[Category:scotty2]] | [[Category:scotty2]] |
Version du 3 juin 2019 à 15:48
Domaine
Apprentissage profond
Définition
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
Note
La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Français
mini-lot n.m.
Anglais
mini-batch
minibatch
Source: Google machine learning glossary
Source:L'APPRENTISSAGE PROFOND
Contributeurs: Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche