« Connexion récurrente à valeur constante » : différence entre les versions


m (Remplacement de texte — « DeepAI.org ] » par « DeepAI.org ] Catégorie:DeepAI.org  »)
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(8 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents.
 
Il s'agit d'un ajout aux [[réseaux récurrents à longue mémoire court terme]] qui permet de résoudre les problèmes de gradient évanescent et explosif.
 
Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.


== Définition ==
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
'''connexion récurrente à valeur constante'''
 
'''boucle à valeur constante'''
 
'''carrousel à erreur constante''' (traduction littérale)


== Anglais ==
== Anglais ==
''' Constant Error Carousel'''
'''constant error carousel'''
 
A specified type of recurrent neural network architecture is called a Long Short-Term Memory (LTSM). Unlike a feedforward network, LTSM architecture incorporates feedback, allowing it to function as a general purpose computer. While there are many different forms of LTSM architecture, to understand the Constant Error Carousel, we will examine a simple framework.


'''CEC'''
==Sources==


<small>


[https://tel.archives-ouvertes.fr/tel-01771685/document  Source : Ikram Chraibi Kaadoud. ''Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques''. Autre. Université de Bordeaux, 2018. Français. ffNNT : 2018BORD0032. fftel-01771685 ]


[https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel  Source : DeepAI.org ]
[https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel  Source : DeepAI.org ]


[[Catégorie:DeepAI.org]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
 
[[Catégorie:vocabulary]]

Dernière version du 30 août 2024 à 17:54

Définition

Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents.

Il s'agit d'un ajout aux réseaux récurrents à longue mémoire court terme qui permet de résoudre les problèmes de gradient évanescent et explosif.

Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.


Français

connexion récurrente à valeur constante

boucle à valeur constante

carrousel à erreur constante (traduction littérale)

Anglais

constant error carousel

CEC

Sources

Source : Ikram Chraibi Kaadoud. Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques. Autre. Université de Bordeaux, 2018. Français. ffNNT : 2018BORD0032. fftel-01771685

Source : DeepAI.org