« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
(Ajustement de quelques sections de la fiche.)
Balise : Éditeur de wikicode 2017
Ligne 7 : Ligne 7 :
[[Catégorie:App-profond-livre]]
[[Catégorie:App-profond-livre]]
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
<br />
<br />


== Définition ==
== Définition ==
Petit sous-ensemble, sélectionné aléatoirement, du lot complet d'exemples exécutés simultanément dans une même itération d'apprentissage ou d'inférence. La taille de lot d'un mini-lot est généralement comprise entre 10 et 1 000. Il est bien plus efficace de calculer la perte pour un mini-lot que pour l'ensemble entier des données d'apprentissage.
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  
 
 
Note


La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


<br />
<br />
== Français ==
== Français ==
=== mini-lot  <small>n.m.</small> ===
'''mini-lot'''   <small>n.m.</small>




Ligne 22 : Ligne 28 :
== Anglais ==
== Anglais ==


===  mini-batch===
'''mini-batch'''
=== minibatch ===
 
'''minibatch'''





Version du 2 juin 2019 à 15:49

Domaine


Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.


Note

La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


Français

mini-lot n.m.



Anglais

mini-batch

minibatch





Source: Google machine learning glossary
Source:L'APPRENTISSAGE PROFOND