« Architecture par microlots » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche. | Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche. | ||
Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité. | Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais ''Graphics Processing Unit'') est limité. | ||
'''Note: | '''Note: ce terme est parfois orthographié micro-lots.''' | ||
==Français== | ==Français== |
Version du 5 février 2021 à 16:31
Définition
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.
Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.
Note: ce terme est parfois orthographié micro-lots.
Français
architecture par microlots
Anglais
micro-batch architecture
Contributeurs: Gérard Pelletier, Imane Meziani, wiki