« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
Ligne 8 : Ligne 7 :
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
<br />


== Définition ==
== Définition ==
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  


Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


== Français ==
== Français ==
'''mini-lot'''  <small>n.m.</small>
'''mini-lot'''  <small>n.m.</small>


== Anglais ==


Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
'''mini-batch'''


'''minibatch'''


<br />


== Anglais ==


'''mini-batch'''


'''minibatch'''




Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.


[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]

Version du 15 juin 2019 à 21:19

Domaine

Apprentissage profond

Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot n.m.

Anglais

mini-batch

minibatch




Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google machine learning glossary

Source:L'APPRENTISSAGE PROFOND

Source : Termino