« Architecture par microlots » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.


Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.
Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais ''Graphics Processing Unit'') est limité.


'''Note: il est parfois orthographié micro-lots.'''
'''Note: ce terme est parfois orthographié micro-lots.'''


==Français==
==Français==

Version du 5 février 2021 à 17:31

Définition

Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.

Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.

Note: ce terme est parfois orthographié micro-lots.

Français

architecture par microlots

Anglais

micro-batch architecture


Source : github

Source : jenkov.com