« Réseau de neurones à propagation avant » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
Un réseau de neurones à propagation avant, en anglais ''feedforward neural network'', est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. | Un réseau de neurones à propagation avant, en anglais ''feedforward neural network'', est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. | ||
Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait ''[Perceptron]]''. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau. | Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait ''[[Perceptron]]''. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau. | ||
Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un ''[[Perceptron multicouche]]'' | Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un ''[[Perceptron multicouche]]'' |
Version du 27 septembre 2022 à 13:42
Définition
Un réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt.
Le réseau de neurones à propagation avant a été le premier et le plus simple type de réseau neuronal artificiel conçu. Typiquement, il ne comportait qu'une seule couche cachée et s'appelait Perceptron. Dans ce réseau, l'information ne se déplace que dans une seule direction, vers l'avant, à partir des nœuds d'entrée, en passant par les couches cachées (le cas échéant) et vers les noeuds de sortie. Il n'y a pas de cycles ou de boucles dans le réseau.
Quand le réseau de neurones à propagation avant comporte plusieurs couches cachées, on parle habituellement d'un Perceptron multicouche
Compléments
Il faut bien distinguer les boucles dans l'architecture d'un réseau de neurones et le mécanisme de rétropropagation de l'erreur.
Français
réseau de neurones à propagation avant
réseau à propagation avant
réseau à propagation vers l'avant
Anglais
feedforward neural network
feedforward network
forward propagation neural network
forward propagation network
Source : Wikipedia IA, Réseau de neurones à propagation avant.
Contributeurs: Claude Coulombe, Jacques Barolet, wiki, Robert Meloche