« Réseau neuronal d'espaces d'états structurés » : différence entre les versions


Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==


Classe de [[réseau de neurones profond|réseaux de neurone profonds]] qui empruntent à la fois aux [[Réseau récurrent|réseaux récurrents]], aux [[Réseau convolutif|réseaux convolutifs]] et aux représentations d'espaces d'états.  
Classe de [[réseau de neurones profond|réseaux de neurone profonds]] qui empruntent à la fois aux [[Réseau récurrent|réseaux récurrents]], aux [[Réseau convolutif|réseaux convolutifs]] et aux représentations d'espaces d'états et qui sert à traiter plus efficacement de [[Modèle séquence à séquence|longues séquences]].  


== Compléments ==
== Compléments ==


Mamba est exemple de modèle à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement de longues séquences.
Mamba est exemple de réseau à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement de longues séquences.


==Français==
==Français==

Version du 27 février 2024 à 17:11

Définition

Classe de réseaux de neurone profonds qui empruntent à la fois aux réseaux récurrents, aux réseaux convolutifs et aux représentations d'espaces d'états et qui sert à traiter plus efficacement de longues séquences.

Compléments

Mamba est exemple de réseau à base de séquences d'espaces d'états structurés développé par des chercheurs de l'Université Carnegie Mellon et de l'Université de Princeton pour répondre à certaines limitations des modèles autoattentifs (transformers), en particulier pour le traitement de longues séquences.

Français

réseau à base de séquences d'espaces d'états structurés

réseau S2ES

modèle à base de séquences d'espaces d'états structurés

modèle S2ES

architecture à base de séquences d'espaces d'états structurés

architecture S2ES

apprentissage à base de séquences d'espaces d'états structurés

apprentissage S2ES


Anglais

structured state space sequence model

S4 model

S4 architecture


Sources

Structured state space sequence model - Wikipedia

Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs, Unite.ai

Représentation d'état - Wikipedia