Réseau de neurones à propagation avant
Définition
Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt.
Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait Perceptron. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau. C'est pourquoi on le désigne parfois par réseau de neurones sans boucle.
Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un Perceptron multicouche
Compléments
Il faut bien distinguer les boucles dans l'architecture d'un réseau de neurones et le mécanisme de rétropropagation de l'erreur.
Français
réseau de neurones à propagation avant
réseau à propagation avant
réseau à propagation vers l'avant
réseau sans boucle
réseau prédictif
Anglais
feedforward neural network
feedforward network
feed-forward network
feed forward neural network
feed forward network
forward propagation neural network
forward propagation network
Sources
Source : Wikipedia IA, Réseau de neurones à propagation avant.
Contributeurs: Claude Coulombe, Jacques Barolet, wiki, Robert Meloche