« Réseau neuronal d'espaces d'états structurés » : différence entre les versions


Aucun résumé des modifications
Ligne 5 : Ligne 5 :
== Compléments ==
== Compléments ==


Les réseaux profonds de séquences d'espaces d'états (S2ES) ont été conçus pour surmonter certaines problèmes des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement efficace de longues séquences.
Le concept de base est celui des modèles d'espaces d'états, en anglais SSM (State Space Model) étendus par l'ajout d'une structure (S4 Model: Structured State Space Sequence Model) à la modélisation de longues séquences. Encore là, le terme s'applique à la fois aux architectures, aux modèles, aux réseaux de neurones profonds et aux types d'apprentissage.  


Il existe un grand nombre de variantes d'architectures S2ES: [[Mamba]], HiPPO, LSSL, SaShiMi, DSS, HTTYH, S4D, and S4ND.
Il nous semble que le mot « séquence » s'applique à ce qui est modélisé et non pas à la nature de l'algorithme. Par contre, par abus de langage, on ajoute le mot « séquence » pour donner S4 (S4 Model: Structured State Space Sequence Model).
 
<hr/>
Les réseaux profonds d'espaces d'états structurés (R2ES) ont été conçus pour surmonter certaines problèmes des [[Réseau autoattentif|modèles autoattentifs]] (''transformers''), en particulier pour le traitement efficace de longues séquences.
 
Il existe un grand nombre de variantes d'architectures R2ES: [[Mamba]], HiPPO, LSSL, SaShiMi, DSS, HTTYH, S4D, and S4ND.


==Français==
==Français==


'''réseau de séquences d'espaces d'états'''
'''réseau d'espaces d'états structurés'''
 
''R2ES''


'''réseau à base de séquences d'espaces d'états structurés'''
'''réseau à base de séquences d'espaces d'états structurés'''
Ligne 28 : Ligne 35 :


'''apprentissage S2ES'''
'''apprentissage S2ES'''


==Anglais==
==Anglais==

Version du 23 avril 2024 à 14:27

Définition

Architecture de réseaux de neurone profonds qui emprunte à la fois aux réseaux récurrents, aux réseaux convolutifs et aux représentations d'espaces d'états structurés et qui sert à modéliser et traiter plus efficacement de longues séquences.

Compléments

Le concept de base est celui des modèles d'espaces d'états, en anglais SSM (State Space Model) étendus par l'ajout d'une structure (S4 Model: Structured State Space Sequence Model) à la modélisation de longues séquences. Encore là, le terme s'applique à la fois aux architectures, aux modèles, aux réseaux de neurones profonds et aux types d'apprentissage.

Il nous semble que le mot « séquence » s'applique à ce qui est modélisé et non pas à la nature de l'algorithme. Par contre, par abus de langage, on ajoute le mot « séquence » pour donner S4 (S4 Model: Structured State Space Sequence Model).


Les réseaux profonds d'espaces d'états structurés (R2ES) ont été conçus pour surmonter certaines problèmes des modèles autoattentifs (transformers), en particulier pour le traitement efficace de longues séquences.

Il existe un grand nombre de variantes d'architectures R2ES: Mamba, HiPPO, LSSL, SaShiMi, DSS, HTTYH, S4D, and S4ND.

Français

réseau d'espaces d'états structurés

R2ES

réseau à base de séquences d'espaces d'états structurés

réseau S2ES

modèle à base de séquences d'espaces d'états structurés

modèle S2ES

architecture à base de séquences d'espaces d'états structurés

architecture S2ES

apprentissage à base de séquences d'espaces d'états structurés

apprentissage S2ES

Anglais

structured state space sequence model

S4 model

S4 architecture

state space model

SSM

Sources

Structured state space sequence model - Wikipedia

Efficiently Modeling Long Sequences with Structured State Spaces - arxiv 2022

Mamba : redéfinir la modélisation des séquences et surpasser l'architecture des transformateurs, Unite.ai

Représentation d'état - Wikipedia