Réseau de neurones à propagation avant


La version imprimable n’est plus prise en charge et peut comporter des erreurs de génération. Veuillez mettre à jour les signets de votre navigateur et utiliser à la place la fonction d’impression par défaut de celui-ci.

Définition

Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt.

Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait Perceptron. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau.

Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un Perceptron multicouche

Compléments

Il faut bien distinguer les boucles dans l'architecture d'un réseau de neurones et le mécanisme de rétropropagation de l'erreur.

Français

réseau de neurones à propagation avant

réseau à propagation avant

réseau à propagation vers l'avant


Anglais

feedforward neural network

feedforward network

forward propagation neural network

forward propagation network

Sources

Source : Wikipedia IA, Réseau de neurones à propagation avant.


GRAND DICTIONAIRE TERMINOLOGIQUE
Source : Ce terme provient de La Vitrine linguistiquede l'Office québécois de la langue française.