« Réseau à états échoïques » : différence entre les versions
m (Remplacement de texte — « Source: L'apprentissage profond. Éd.Massot 2018 » par « Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== en construction == | == en construction == | ||
== Définition == | == Définition == | ||
... | La connectivité et le poids des neurones cachés sont fixés et répartis au hasard. Les poids des neurones de sortie peuvent être appris afin que le réseau puisse (re) produire des modèles temporels spécifiques. L’intérêt principal de ce réseau est que, bien que son comportement soit non linéaire, les seuls poids modifiés pendant l’entraînement concernent les synapses qui connectent les neurones cachés aux neurones de sortie. | ||
Ainsi, la fonction d'erreur est quadratique par rapport au paramètre vector et peut être facilement différenciée en un système linéaire. | |||
---- | |||
Un Echo State Network est un exemple du concept plus général de Reservoir Computing . L'idée de base derrière l'ESN est d'obtenir les avantages d'un RNN (traiter une séquence d'entrées qui dépendent les unes des autres, c'est-à-dire des dépendances temporelles comme un signal) mais sans les problèmes de formation d'un RNN traditionnel comme le problème du gradient de fuite . | |||
---- | |||
Ligne 10 : | Ligne 17 : | ||
'''réseau à états échoïques ''' | '''réseau à états échoïques ''' | ||
== Anglais == | == Anglais == | ||
'''echo state network''' | '''echo state network''' | ||
Ligne 16 : | Ligne 22 : | ||
<small> | <small> | ||
[https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 ] | [https://www.apprentissageprofond.org/ Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 ] | ||
[https://apprentissageprofond.org Source : ''L'apprentissage profond'', Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 377 ] | |||
[https://en.wikipedia.org/wiki/Echo_state_network Source : Wikipedia] | |||
[https://www.24pm.com/117-definitions/344-echo-state-network Source : 24pm academie] | |||
[https://qastack.fr/stats/140652/what-is-an-intuitive-explanation-of-echo-state-networks Source : qastack.fr] | |||
[[Catégorie:vocabulaire]] | |||
[[Catégorie:App-profond-livre]] | |||
[[Catégorie:Intelligence artificielle]] | |||
[[Catégorie:24pm]] |
Version du 16 mai 2020 à 09:54
en construction
Définition
La connectivité et le poids des neurones cachés sont fixés et répartis au hasard. Les poids des neurones de sortie peuvent être appris afin que le réseau puisse (re) produire des modèles temporels spécifiques. L’intérêt principal de ce réseau est que, bien que son comportement soit non linéaire, les seuls poids modifiés pendant l’entraînement concernent les synapses qui connectent les neurones cachés aux neurones de sortie.
Ainsi, la fonction d'erreur est quadratique par rapport au paramètre vector et peut être facilement différenciée en un système linéaire.
Un Echo State Network est un exemple du concept plus général de Reservoir Computing . L'idée de base derrière l'ESN est d'obtenir les avantages d'un RNN (traiter une séquence d'entrées qui dépendent les unes des autres, c'est-à-dire des dépendances temporelles comme un signal) mais sans les problèmes de formation d'un RNN traditionnel comme le problème du gradient de fuite .
Français
réseau à états échoïques
Anglais
echo state network
Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018
Contributeurs: Imane Meziani, Jacques Barolet, wiki