« Mini-lot » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
Ligne 2 : Ligne 2 :
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.  


Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.


==Français==
==Français==
Ligne 11 : Ligne 11 :


'''minibatch'''
'''minibatch'''


==Sources==
==Sources==
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
 
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary'']


[[Utilisateur:Patrickdrouin  | Source : Termino]]


[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]

Version du 6 avril 2024 à 11:29

Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Remarque : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot

Anglais

mini-batch

minibatch

Sources

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Google machine learning glossary

Source : Termino