« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 8 : Ligne 8 :
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty]]


<br />
<br />
Ligne 22 : Ligne 19 :
La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


<br />
 
== Français ==
== Français ==
'''mini-lot'''  <small>n.m.</small>
'''mini-lot'''  <small>n.m.</small>
Ligne 36 : Ligne 33 :




<br/>
 
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
 
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
<br/>
<br/>
<br/>


<br/>
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]

Version du 4 juin 2019 à 13:43

Domaine

Apprentissage profond


Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.


Note

La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


Français

mini-lot n.m.



Anglais

mini-batch

minibatch


Source: Google machine learning glossary

Source:L'APPRENTISSAGE PROFOND

Source : Termino