« Réseau de neurones récurrents bidirectionnel » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Bidirectional Recurrent Neural Networks ''' Bidirectional recurren... »)
 
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(7 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Solution qui vise à présenter chaque séquence à traiter à deux [[réseau de neurones récurrents|réseaux de neurones récurrents]], de façon à ce que l'un traite la séquence dans l'ordre naturel et l'autre dans l'ordre inverse, pour ensuite les concaténer et les mettre en entrée d'un [[perceptron multicouche]], qui produira une sortie qui prend en compte le contexte passé ainsi que le contexte futur.


== Français ==
== Français ==
''' XXXXXXXXX '''
'''réseau de neurones récurrents bidirectionnel'''


== Anglais ==
== Anglais ==
''' Bidirectional Recurrent Neural Networks '''
'''bidirectional recurrent neural network'''
 
 
Bidirectional recurrent neural networks (BRNN) connect two hidden layers running in opposite directions to a single output, allowing them to receive information from both past and future states. This generative deep learning technique is more common in supervised learning approaches, rather than unsupervised or semi-supervised because how difficult it is to calculate a reliable probabilistic model.


<small>


==Sources==


[https://deepai.org/machine-learning-glossary-and-terms/bidirectional-recurrent-neural-networks Source : DeepAI.org ]
[https://tel.archives-ouvertes.fr/tel-01615475/document Source : Gregory Gelly. ''Réseaux de neurones récurrents pour le traitement automatique de la parole''. Université Paris Saclay (COmUE), 2017. ffNNT : 2017SACLS295ff. fftel-01615475 ]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 12:28

Définition

Solution qui vise à présenter chaque séquence à traiter à deux réseaux de neurones récurrents, de façon à ce que l'un traite la séquence dans l'ordre naturel et l'autre dans l'ordre inverse, pour ensuite les concaténer et les mettre en entrée d'un perceptron multicouche, qui produira une sortie qui prend en compte le contexte passé ainsi que le contexte futur.

Français

réseau de neurones récurrents bidirectionnel

Anglais

bidirectional recurrent neural network


Sources

Source : Gregory Gelly. Réseaux de neurones récurrents pour le traitement automatique de la parole. Université Paris Saclay (COmUE), 2017. ffNNT : 2017SACLS295ff. fftel-01615475