« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(9 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
<!-- Vocabulaire -->
<!-- Google -->
[[Category:Apprentissage profond]]
[[Catégorie:App-profond-livre]]
<!-- Scotty2 -->
[[Category:Termino 2019]]
==Définition==
==Définition==
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  


Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


==Français==
==Français==
'''mini-lot'''  <small>loc. nom. fém.</small>
'''mini-lot'''   
 
==Anglais==
==Anglais==
'''mini-batch'''
'''mini-batch'''
Ligne 19 : Ligne 12 :
'''minibatch'''
'''minibatch'''


==Sources==
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary'']


<small>
[[Utilisateur:Patrickdrouin  | Source : Termino]]


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Apprentissage profond]]
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]

Dernière version du 11 octobre 2024 à 08:32

Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot

Anglais

mini-batch

minibatch

Sources

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Google machine learning glossary

Source : Termino