« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]
[[Catégorie:App-profond-livre2]]
[[Catégorie:App-profond-livre2]]
[[Category:scotty2]]
[[Category:scotty2]]
Ligne 14 : Ligne 13 :


== Français ==
== Français ==
'''mini-lot'''  <small>n.m.</small>
'''mini-lot'''  n.m.


== Anglais ==
== Anglais ==
'''mini-batch'''
'''mini-batch'''


Ligne 23 : Ligne 21 :




<small>


Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Version du 17 juin 2019 à 20:56


Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot n.m.

Anglais

mini-batch

minibatch


Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google machine learning glossary

Source:L'APPRENTISSAGE PROFOND

Source : Termino