« MatMul » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 8 : Ligne 8 :
== Français ==
== Français ==
''' MatMul'''
''' MatMul'''
''' multiplication de matrices'''


''' multiplication matricielle '''
''' multiplication matricielle '''
''' multiplication de matrices'''


== Anglais ==
== Anglais ==
''' MatMul '''
''' MatMul '''


''' Matrix multiplication'''
''' matrix multiplication'''


''Matrix Multiplication (MatMul) is the dominant operation in most neural network and it typically dominates the overall computational cost of Large Language Models, often consuming the majority of the execution time and memory access during both training and inference phases. The prevalence of MatMul is primarily due to Graphics Processing Units (GPUs) being optimized for MatMul operations.''
''Matrix Multiplication (MatMul) is the dominant operation in most neural network and it typically dominates the overall computational cost of Large Language Models, often consuming the majority of the execution time and memory access during both training and inference phases. The prevalence of MatMul is primarily due to Graphics Processing Units (GPUs) being optimized for MatMul operations.''

Version du 30 septembre 2024 à 14:29

en construction

Définition

La multiplication matricielle (MatMul) est l'opération dominante dans la plupart des réseaux neuronaux et elle domine généralement le coût de calcul global des grands modèles de langues, consommant souvent la majorité du temps d'exécution et de l'accès à la mémoire pendant les phases d'apprentissage et d'inférence. La prédominance de MatMul est principalement due au fait que les unités de traitement graphique (GPU) sont optimisées pour les opérations MatMul.

Voir aussi grand modèle de langues, réseau neuronal et unité de traitement graphique

Français

MatMul

multiplication de matrices

multiplication matricielle

Anglais

MatMul

matrix multiplication

Matrix Multiplication (MatMul) is the dominant operation in most neural network and it typically dominates the overall computational cost of Large Language Models, often consuming the majority of the execution time and memory access during both training and inference phases. The prevalence of MatMul is primarily due to Graphics Processing Units (GPUs) being optimized for MatMul operations.

Source

Source : arxiv

Source : datacamp

Contributeurs: Arianne , wiki