« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(21 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
==Définition==
== Domaine ==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Vocabulaire2]]
[[Category:Google2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Catégorie:App-profond-livre2]]
[[Category:scotty2]]
[[Category:Termino 2019]]
 
<br />
 
== Définition ==
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  


Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


Note : La taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
==Français==
'''mini-lot'''  


==Anglais==
'''mini-batch'''


== Français ==
'''minibatch'''
'''mini-lot'''   <small>n.m.</small>




<br />


== Anglais ==
==Sources==
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


'''mini-batch'''
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']


'''minibatch'''
[[Utilisateur:Patrickdrouin  | Source: Termino]]




 
[[Category:GRAND LEXIQUE FRANÇAIS]]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[[Category:Apprentissage profond]]
 
[[Category:Termino 2019]]
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
 
[[Utilisateur:Patrickdrouin  | Source : Termino ]]

Version du 28 janvier 2024 à 11:02

Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot

Anglais

mini-batch

minibatch


Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google machine learning glossary

Source: Termino