Réseau de neurones à propagation avant
Définition
Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt.
Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait Perceptron. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau.
Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un Perceptron multicouche
Compléments
Il faut bien distinguer les boucles dans l'architecture d'un réseau de neurones et le mécanisme de rétropropagation de l'erreur.
Français
réseau de neurones à propagation avant
réseau à propagation avant
réseau à propagation vers l'avant
Anglais
feedforward neural network
feedforward network
feedforward neural network
feedforward network
forward propagation neural network
forward propagation network
Sources
Source : Wikipedia IA, Réseau de neurones à propagation avant.
Contributeurs: Claude Coulombe, Jacques Barolet, wiki, Robert Meloche