« Architecture par microlots » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵ » par «   »)
 
(5 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 2 : Ligne 2 :
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.
Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.


Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.
Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais ''Graphics Processing Unit'') est limité.


==Français==
==Français==
'''architecture par microlots'''
'''architecture par microlots'''
'''architecture par micro-lots'''


==Anglais==
==Anglais==


'''micro-batch architecture'''
'''micro-batch architecture'''


[https://fizalihsan.github.io/technology/lambda-architecture.html#micro-batching Source : github]
[https://fizalihsan.github.io/technology/lambda-architecture.html#micro-batching Source : github]
Ligne 16 : Ligne 17 :
[http://tutorials.jenkov.com/java-performance/micro-batching.html Source : jenkov.com]
[http://tutorials.jenkov.com/java-performance/micro-batching.html Source : jenkov.com]


 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:publication]]

Dernière version du 29 janvier 2024 à 10:19

Définition

Dans un contexte générique de traitement distribué, technique dans laquelle les tâches à exécuter sont regroupées en petits lots pour obtenir certains des avantages en termes de performances du traitement par lots, sans trop augmenter la latence pour chaque exécution de tâche.

Dans le contexte de l’entraînement de réseaux de neurones profonds, les mini-lots sont divisés en microlots quand l’espace mémoire des processeurs graphiques (GPU, de l'anglais Graphics Processing Unit) est limité.

Français

architecture par microlots

architecture par micro-lots

Anglais

micro-batch architecture

Source : github

Source : jenkov.com