« Connexion récurrente à valeur constante » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(6 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
Compléments: Terme hyperspécialisé du domaine des réseaux de neurones récurrents.
Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents.
connexion récurrente à valeur constante, boucle à valeur constante => carrousel à erreur constante (dernier choix car trad. littérale)
 
What is a Constant Error Carousel?
Il s'agit d'un ajout aux [[réseaux récurrents à longue mémoire court terme]] qui permet de résoudre les problèmes de gradient évanescent et explosif.
A specified type of recurrent neural network architecture is called a Long Short-Term Memory (LTSM). Unlike a feedforward network, LTSM architecture incorporates feedback, allowing it to function as a general purpose computer. While there are many different forms of LTSM architecture, to understand the Constant Error Carousel, we will examine a simple framework.
 
One cell consists of a cell unit, and three gates (input, forget, and output). The gates use a sigmoid activation function, and the input and cell state is usually transformed by tanh, another activation function. The gating mechanism can hold information for long durations, however vanilla LSTMs don't have a forget gate and instead add an unchanged cell state (e.g. a recurrent connection with a constant weight of 1). This addition is called the Constant Error Carousel because it solves the training problem of vanishing and exploding gradients. In networks that do contain a forget gate, the Constant Error Carousel may be reset by the forget gate. The addition of the Constant Error Carousel allows for the LSTM to learn long-term relationships while mitigating the risks of prolonged testing.
Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.
Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les LSTM de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé Constant Error Carousel car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, le carrousel d'erreur constant peut être réinitialisé par la porte d'oubli. L'ajout du carrousel à erreurs constantes permet au LSTM d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.




== Français ==
== Français ==
'''carrousel d'erreur constante'''
'''connexion récurrente à valeur constante'''
 
'''boucle à valeur constante'''
 
'''carrousel à erreur constante''' (traduction littérale)


== Anglais ==
== Anglais ==
Ligne 16 : Ligne 18 :


'''CEC'''
'''CEC'''
 
==Sources==
 
<small>




Ligne 25 : Ligne 25 :
[https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel  Source : DeepAI.org ]
[https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel  Source : DeepAI.org ]


[[Catégorie:DeepAI.org]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
[[Catégorie:vocabulary]]

Dernière version du 30 août 2024 à 17:54

Définition

Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents.

Il s'agit d'un ajout aux réseaux récurrents à longue mémoire court terme qui permet de résoudre les problèmes de gradient évanescent et explosif.

Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.


Français

connexion récurrente à valeur constante

boucle à valeur constante

carrousel à erreur constante (traduction littérale)

Anglais

constant error carousel

CEC

Sources

Source : Ikram Chraibi Kaadoud. Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques. Autre. Université de Bordeaux, 2018. Français. ffNNT : 2018BORD0032. fftel-01771685

Source : DeepAI.org