Réseau de neurones à propagation avant


Définition

Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt.

Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait Perceptron. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau.

Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un Perceptron multicouche

Compléments

Il faut bien distinguer les boucles dans l'architecture d'un réseau de neurones et le mécanisme de rétropropagation de l'erreur.

Français

réseau de neurones à propagation avant

réseau à propagation avant

réseau à propagation vers l'avant


Anglais

feedforward neural network

feedforward network

forward propagation neural network

forward propagation network

Sources

Source : Wikipedia IA, Réseau de neurones à propagation avant.


GRAND DICTIONAIRE TERMINOLOGIQUE
Source : Ce terme provient de La Vitrine linguistiquede l'Office québécois de la langue française.