« Mini-lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(28 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.
[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Category:Vocabulaire2]]
Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.
[[Category:Google2]]
[[Category:Apprentissage profond2]]
[[Catégorie:App-profond-livre]]
[[Category:scotty2]]
<br />


== Définition ==
==Français==
Petit sous-ensemble, sélectionné aléatoirement, du lot complet d'exemples exécutés simultanément dans une même itération d'apprentissage ou d'inférence. La taille de lot d'un mini-lot est généralement comprise entre 10 et 1 000. Il est bien plus efficace de calculer la perte pour un mini-lot que pour l'ensemble entier des données d'apprentissage.
'''mini-lot''


==Anglais==
'''mini-batch'''


<br />
'''minibatch'''
== Français ==
=== mini-lot  <small>n.m.</small> ===




<br />


== Anglais ==
==Sources==
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


===  mini-batch===
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
=== minibatch ===


[[Utilisateur:Patrickdrouin  | Source: Termino]]


<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
[https://www.leslibraires.ca/livres/l-apprentissage-profond-ian-goodfellow-9791097160432.html    Source:L'APPRENTISSAGE PROFOND]
<br/>
<br/>
<br/>


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]

Version du 28 janvier 2024 à 11:02

Définition

Petit nombre d'exemples sélectionnés au hasard parmi l'ensemble des exemples d'entraînement et traités simultanément lors d'une itération du processus d'apprentissage.

Note : la taille d'un mini-lot varie généralement entre 10 et 1 000 exemples. L'utilisation des mini-lots permet de calculer plus efficacement la perte que sur l'ensemble des exemples d'apprentissage.

Français

mini-lot

Anglais

mini-batch

minibatch


Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google machine learning glossary

Source: Termino