« Connexion récurrente à valeur constante » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Constant Error Carousel''' A specified type of recurrent neural net... ») |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
(9 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents. | |||
Il s'agit d'un ajout aux [[réseaux récurrents à longue mémoire court terme]] qui permet de résoudre les problèmes de gradient évanescent et explosif. | |||
Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés. | |||
== Français == | == Français == | ||
''' | '''connexion récurrente à valeur constante''' | ||
'''boucle à valeur constante''' | |||
'''carrousel à erreur constante''' (traduction littérale) | |||
== Anglais == | == Anglais == | ||
''' | '''constant error carousel''' | ||
'''CEC''' | |||
==Sources== | |||
[https://tel.archives-ouvertes.fr/tel-01771685/document Source : Ikram Chraibi Kaadoud. ''Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques''. Autre. Université de Bordeaux, 2018. Français. ffNNT : 2018BORD0032. fftel-01771685 ] | |||
[https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel Source : DeepAI.org ] | [https://deepai.org/machine-learning-glossary-and-terms/constant%20error%20carousel Source : DeepAI.org ] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 30 août 2024 à 17:54
Définition
Note: terme hyperspécialisé du domaine des réseaux de neurones récurrents.
Il s'agit d'un ajout aux réseaux récurrents à longue mémoire court terme qui permet de résoudre les problèmes de gradient évanescent et explosif.
Compléments: Une cellule se compose d'un état de cellule et de trois portes (entrée, oubli et sortie). Les portes utilisent une fonction d'activation sigmoïde, et l'état d'entrée et de cellule est généralement transformé par tanh, une autre fonction d'activation. Le mécanisme de déclenchement peut contenir des informations pendant de longues durées, mais les RRLMCT de base n'ont pas de porte d'oubli et ajoutent à la place un état de cellule inchangé (par exemple, une connexion récurrente avec un poids constant de 1). Cet ajout est appelé connexion récurrente à valeur constante car il résout le problème d’entraînement des gradients qui disparaissent et explosent. Dans les réseaux qui contiennent une porte d'oubli, la connexion récurrente à valeur constante peut être réinitialisée par la porte d'oubli. L'ajout de la connexion récurrente à valeur constante permet au RRLMCT d'apprendre des relations à long terme tout en atténuant les risques de tests prolongés.
Français
connexion récurrente à valeur constante
boucle à valeur constante
carrousel à erreur constante (traduction littérale)
Anglais
constant error carousel
CEC
Sources
Contributeurs: Imane Meziani, Jean Benoît Morel, wiki