« Couche de neurones » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Au sein d'un réseau neuronal, les neurones sont généralement structurés par couches. Bien qu'il existe des réseaux de neurones dont tous les neurones sont interconnectés, comme les [ | Au sein d'un réseau neuronal, les neurones sont généralement structurés par couches. Bien qu'il existe des réseaux de neurones dont tous les neurones sont interconnectés, comme les [[Machine de Boltzmann|machines de Boltzmann]], l'organisation typique d'un réseau de neurones, aussi appelée [[Perceptron multicouche|architecture multicouche]] d'un réseau de neurones, consiste en une superposition de couches de neurones (neuron layers). | ||
Typiquement, il n'y a pas de connexion entre les neurones d'une même couche et les connexions ne se font qu'avec les neurones de la couche suivante. Aussi, chaque neurone d'une couche est lié avec tous les neurones de la couche en aval et celle-ci uniquement. | Typiquement, il n'y a pas de connexion entre les neurones d'une même couche et les connexions ne se font qu'avec les neurones de la couche suivante. Aussi, chaque neurone d'une couche est lié avec tous les neurones de la couche en aval et celle-ci uniquement. | ||
On appelle couche d'entrée l’ensemble des neurones d'entrée et couche de sortie l’ensemble des neurones de sortie. Les couches intermédiaires n'ont pas de contact avec l'extérieur et sont donc nommées couches cachées. | On appelle couche d'entrée l’ensemble des neurones d'entrée et couche de sortie l’ensemble des neurones de sortie. Les couches intermédiaires n'ont pas de contact avec l'extérieur et sont donc nommées couches cachées. |
Version du 22 août 2022 à 07:30
Définition
Au sein d'un réseau neuronal, les neurones sont généralement structurés par couches. Bien qu'il existe des réseaux de neurones dont tous les neurones sont interconnectés, comme les machines de Boltzmann, l'organisation typique d'un réseau de neurones, aussi appelée architecture multicouche d'un réseau de neurones, consiste en une superposition de couches de neurones (neuron layers).
Typiquement, il n'y a pas de connexion entre les neurones d'une même couche et les connexions ne se font qu'avec les neurones de la couche suivante. Aussi, chaque neurone d'une couche est lié avec tous les neurones de la couche en aval et celle-ci uniquement.
On appelle couche d'entrée l’ensemble des neurones d'entrée et couche de sortie l’ensemble des neurones de sortie. Les couches intermédiaires n'ont pas de contact avec l'extérieur et sont donc nommées couches cachées.
Compléments
Il persiste une certaine confusion quant au nombre de couches d'un réseau de neurones. En raison de leur position, la couche d'entrée (input layer) et la couche de sortie (output layer) d'un réseau de neurones jouent des rôles particuliers, qui sont l'entrée des données et le calcul final du résultat du traitement de ces données par le réseau de neurones.
Entre la couche d'entrée et de sortie se trouvent les couches cachées de neurones (hidden layers), c'est là où se fait la plus grande partie du traitement des données. C'est le nombre de couches cachées qui définit la profondeur d'un réseau de neurones.
Français
couche de neurones
couche
Anglais
neuron layer
layer
Source: Google machine learning glossary
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, wiki, Robert Meloche