« Mamba » : différence entre les versions


(Page créée avec « == Définition == Mamba (nom propre) est une architecture d'apprentissage profond du type réseau neuronal d'espaces d'états structurés proposée en décembre 2023 par Albert Gu de Carnegie Mellon University et Tri Dao de Princeton University. == Français == '''Mamba''' == Anglais == '''Mamba''' ==Sources== [https://arxiv.org/pdf/2312.00752 ''Mamba: Linear-Time Sequence Modeling with Selective State Spaces'', arxiv] [https://www.unite.ai/fr/mamba-re... »)
 
Aucun résumé des modifications
 
Ligne 14 : Ligne 14 :
[https://www.unite.ai/fr/mamba-red%C3%A9finit-la-mod%C3%A9lisation-de-s%C3%A9quence-et-surpasse-l%27architecture-des-transformateurs/  ''Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs'', Unite.ai]
[https://www.unite.ai/fr/mamba-red%C3%A9finit-la-mod%C3%A9lisation-de-s%C3%A9quence-et-surpasse-l%27architecture-des-transformateurs/  ''Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs'', Unite.ai]


[[Catégorie:Publication]]
[[Catégorie:ENGLISH]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 29 avril 2024 à 20:04

Définition

Mamba (nom propre) est une architecture d'apprentissage profond du type réseau neuronal d'espaces d'états structurés proposée en décembre 2023 par Albert Gu de Carnegie Mellon University et Tri Dao de Princeton University.

Français

Mamba

Anglais

Mamba

Sources

Mamba: Linear-Time Sequence Modeling with Selective State Spaces, arxiv

Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs, Unite.ai

Contributeurs: Claude Coulombe, wiki