« Réseau à états échoïques » : différence entre les versions


m (Remplacement de texte — « Source: L'apprentissage profond. Éd.Massot 2018 » par « Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== en construction ==  
== en construction ==  
[[Catégorie:vocabulaire]]
 
[[Catégorie:App-profond-livre]]


== Définition ==
== Définition ==
...
La connectivité et le poids des neurones cachés sont fixés et répartis au hasard. Les poids des neurones de sortie peuvent être appris afin que le réseau puisse (re) produire des modèles temporels spécifiques. L’intérêt principal de ce réseau est que, bien que son comportement soit non linéaire, les seuls poids modifiés pendant l’entraînement concernent les synapses qui connectent les neurones cachés aux neurones de sortie.
 
Ainsi, la fonction d'erreur est quadratique par rapport au paramètre vector et peut être facilement différenciée en un système linéaire.
 
----
 
Un Echo State Network est un exemple du concept plus général de Reservoir Computing . L'idée de base derrière l'ESN est d'obtenir les avantages d'un RNN (traiter une séquence d'entrées qui dépendent les unes des autres, c'est-à-dire des dépendances temporelles comme un signal) mais sans les problèmes de formation d'un RNN traditionnel comme le problème du gradient de fuite .
 
----




Ligne 10 : Ligne 17 :
'''réseau à états échoïques '''
'''réseau à états échoïques '''
   
   
== Anglais ==
== Anglais ==
'''echo state network'''
'''echo state network'''
Ligne 16 : Ligne 22 :
<small>
<small>
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[https://apprentissageprofond.org  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018  page 377  ]
[https://en.wikipedia.org/wiki/Echo_state_network  Source : Wikipedia]
[https://www.24pm.com/117-definitions/344-echo-state-network  Source : 24pm academie]
[https://qastack.fr/stats/140652/what-is-an-intuitive-explanation-of-echo-state-networks  Source : qastack.fr]
[[Catégorie:vocabulaire]]
[[Catégorie:App-profond-livre]]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:24pm]]

Version du 16 mai 2020 à 10:54

en construction

Définition

La connectivité et le poids des neurones cachés sont fixés et répartis au hasard. Les poids des neurones de sortie peuvent être appris afin que le réseau puisse (re) produire des modèles temporels spécifiques. L’intérêt principal de ce réseau est que, bien que son comportement soit non linéaire, les seuls poids modifiés pendant l’entraînement concernent les synapses qui connectent les neurones cachés aux neurones de sortie.

Ainsi, la fonction d'erreur est quadratique par rapport au paramètre vector et peut être facilement différenciée en un système linéaire.


Un Echo State Network est un exemple du concept plus général de Reservoir Computing . L'idée de base derrière l'ESN est d'obtenir les avantages d'un RNN (traiter une séquence d'entrées qui dépendent les unes des autres, c'est-à-dire des dépendances temporelles comme un signal) mais sans les problèmes de formation d'un RNN traditionnel comme le problème du gradient de fuite .



Français

réseau à états échoïques

Anglais

echo state network

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 377

Source : Wikipedia

Source : 24pm academie

Source : qastack.fr