« Réseau récurrent à longue mémoire court terme » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 17 : Ligne 17 :


'''réseau de neurones récurrent à longue mémoire à court-terme'''   
'''réseau de neurones récurrent à longue mémoire à court-terme'''   
'''réseau récurrent à mémoire long terme et court terme''' <small>(déconseillé)</small>


'''RNR à longue mémoire court-terme'''
'''RNR à longue mémoire court-terme'''
Ligne 33 : Ligne 31 :


'''LMCT'''
'''LMCT'''
'''réseau récurrent à mémoire long terme et court terme''' <small>(déconseillé)</small>
'''réseau récurrent à mémoire court terme et long terme''' <small>(déconseillé)</small>


==Anglais==
==Anglais==
Ligne 42 : Ligne 44 :


'''LSTM'''
'''LSTM'''


<small>
<small>


[https://datafranca.org/wiki/Cat%C3%A9gorie:App-profond-livre Source:  Goodfellow, Bengio, Courville'' L'apprentissage profond'',  Éditeur Florent Massot  2018]
[https://datafranca.org/wiki/Cat%C3%A9gorie:App-profond-livre Source:  Goodfellow, Bengio, Courville'' L'apprentissage profond'',  Éditeur Florent Massot  2018]
Ligne 59 : Ligne 59 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Categorie:Publication]]

Version du 2 janvier 2024 à 19:59

Définition

Un réseau de neurones récurrent (RNR) à longue mémoire court terme (LMCT) comporte plusieurs mécanismes internes (une cellule mémoire, une porte d'entrée, une porte de sortie et une porte d'oubli) permettant de tenir compte à la fois des dépendances courtes et longues dans les séquences de données. Ces mécanismes de portes sont aussi conçus pour atténuer le problème de la disparition du gradient.

Compléments

En principe, un réseau de neurones récurrent LMCT essaie de "se souvenir" des informations importantes que le réseau a vues jusqu'à présent et à "oublier" les informations non pertinentes. Cela se fait en introduisant différents circuits de fonction d'activation appelées "portes" que l'on peut concevoir comme de petits robinets. Les paramètres associés aux différentes portes sont appris par entraînement sur des données.


Puisqu'il s'agit d'un mécanisme de longue mémoire à court terme. Il faut ainsi éviter les formes suivantes :

  • réseau de neurone récurrent à mémoire court et long terme
  • réseau de neurone récurrent à long/court terme

Français

réseau récurrent à longue mémoire court-terme

réseau récurrent LMCT

réseau de neurones récurrent à longue mémoire à court-terme

RNR à longue mémoire court-terme

réseau récurrent à longue mémoire court terme

RNR à longue mémoire court terme

réseau de neurones récurrent LMCT

réseau LMCT

RNR LMCT

LMCT

réseau récurrent à mémoire long terme et court terme (déconseillé)

réseau récurrent à mémoire court terme et long terme (déconseillé)

Anglais

long short term memory neural network

long short term memory memory network

long short-term memory

LSTM

Source: Goodfellow, Bengio, Courville L'apprentissage profond, Éditeur Florent Massot 2018

Source: Claude Coulombe - thèse

Source: Claude Coulombe, Datafranca.org

Source: Termino Categorie:Publication