« Architecture par microlots » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵ » par «   »)
 
Ligne 3 : Ligne 3 :


Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais ''Graphics Processing Unit'') est limité.
Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais ''Graphics Processing Unit'') est limité.


==Français==
==Français==
Ligne 13 : Ligne 12 :


'''micro-batch architecture'''
'''micro-batch architecture'''


[https://fizalihsan.github.io/technology/lambda-architecture.html#micro-batching Source : github]
[https://fizalihsan.github.io/technology/lambda-architecture.html#micro-batching Source : github]


[http://tutorials.jenkov.com/java-performance/micro-batching.html Source : jenkov.com]
[http://tutorials.jenkov.com/java-performance/micro-batching.html Source : jenkov.com]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 29 janvier 2024 à 11:19

Définition

Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.

Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.

Français

architecture par microlots

architecture par micro-lots

Anglais

micro-batch architecture

Source : github

Source : jenkov.com