« MambaFromer pour les séries chronologiques » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(7 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==En construction==
== Définition ==
== Définition ==
MambaFromer pour les séries chronologique désigne un modèle ayant une architecture hybride qui intègre intérieurement les forces du '''[[réseau autoattentif]]''' (''Transformer'' en anglais), soit l'encodeur, et de Mamba, le décodeur, pour la prévision des séries chronologiques à long terme. Il fournit une solution à la modélisation de séquences plus puissante et efficace, qui peut accomplir diverses tâches complexes de '''[[traitement automatique de la langue naturelle]]''' (TALN). MambaFormer améliore aussi la précision et la généralisation du TALN.
MambaFromer pour les séries chronologiques désigne un modèle ayant une architecture hybride qui intègre intérieurement les avantages du '''[[réseau autoattentif]]''' (''transformer'' en anglais), soit l'encodeur, et de Mamba, le décodeur, pour la prévision des séries chronologiques à long terme. Il fournit une solution à la modélisation de séquences plus puissante et efficace, qui peut accomplir diverses tâches complexes de '''[[traitement automatique de la langue naturelle]]''' (TALN). MambaFormer améliore aussi la précision et la généralisation du TALN.


Voir aussi '''[[série chronologique]]'''
Voir aussi '''[[série chronologique]]'''
Ligne 10 : Ligne 8 :


''' MambaFormer pour les séries temporelles '''
''' MambaFormer pour les séries temporelles '''
''' MambaFormer '''
''' TransMamba '''


== Anglais ==
== Anglais ==
''' MambaFormer for Time-series '''
''' MambaFormer for Time-series '''


''' ... '''
''' MambaFormer '''
 
''' TransMamba '''
 
''MambaFormer for Time-Series is a model with an hybrid architecture that internally integrates strengths of Transformer (encoder) and Mamba (decoder) for long-shot range time series forecasting and ensures a more powerful and efficient sequence modeling solution that can address the challenges of complex and diverse natural language processing tasks and enhances their accuracy and generalization.''


== Source ==
== Source ==


[https://arxiv.org/abs/2404.14757v1  Source : arxiv]
[https://arxiv.org/abs/2404.14757v1  Source : arxiv]
[https://www.researchgate.net/publication/383342628_TransMambaA_language_model_combining_Transformer_and_Mamba/link/66c8c1b8c2eaa50023130a60/download?_tp=eyJjb250ZXh0Ijp7ImZpcnN0UGFnZSI6InB1YmxpY2F0aW9uIiwicGFnZSI6InB1YmxpY2F0aW9uIn19  Source : Research Gate]




[[Catégorie:vocabulary]]
[[Catégorie:ENGLISH]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 septembre 2024 à 17:43

Définition

MambaFromer pour les séries chronologiques désigne un modèle ayant une architecture hybride qui intègre intérieurement les avantages du réseau autoattentif (transformer en anglais), soit l'encodeur, et de Mamba, le décodeur, pour la prévision des séries chronologiques à long terme. Il fournit une solution à la modélisation de séquences plus puissante et efficace, qui peut accomplir diverses tâches complexes de traitement automatique de la langue naturelle (TALN). MambaFormer améliore aussi la précision et la généralisation du TALN.

Voir aussi série chronologique

Français

MambaFormer pour les séries chronologiques

MambaFormer pour les séries temporelles

MambaFormer

TransMamba

Anglais

MambaFormer for Time-series

MambaFormer

TransMamba

MambaFormer for Time-Series is a model with an hybrid architecture that internally integrates strengths of Transformer (encoder) and Mamba (decoder) for long-shot range time series forecasting and ensures a more powerful and efficient sequence modeling solution that can address the challenges of complex and diverse natural language processing tasks and enhances their accuracy and generalization.

Source

Source : arxiv

Source : Research Gate

Contributeurs: Arianne , wiki