Couche de neurones


Révision datée du 30 août 2024 à 18:58 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Au sein d'un réseau neuronal, les neurones sont généralement structurés par couches. Bien qu'il existe des réseaux de neurones dont tous les neurones sont interconnectés, comme les machines de Boltzmann, l'organisation typique d'un réseau de neurones, aussi appelée architecture multicouche d'un réseau de neurones, consiste en une superposition de couches de neurones (neuron layers).

Typiquement, il n'y a pas de connexion entre les neurones d'une même couche et les connexions ne se font qu'avec les neurones de la couche suivante. Aussi, chaque neurone d'une couche est lié avec tous les neurones de la couche en aval et celle-ci uniquement.

On appelle couche d'entrée, l’ensemble des neurones d'entrée et couche de sortie, l’ensemble des neurones de sortie. Les couches intermédiaires n'ont pas de contact avec l'extérieur et sont donc nommées couches cachées.

Compléments

Il persiste une certaine confusion quant au nombre de couches d'un réseau de neurones. En raison de leur position, la couche d'entrée (input layer) et la couche de sortie (output layer) d'un réseau de neurones jouent des rôles particuliers, qui sont l'entrée des données et le calcul final du résultat du traitement de ces données par le réseau de neurones.

Entre la couche d'entrée et de sortie se trouvent les couches cachées de neurones (hidden layers), c'est là où se fait la plus grande partie du traitement des données. C'est le nombre de couches cachées qui définit la profondeur d'un réseau de neurones.


Français

couche de neurones

couche

Anglais

neuron layer

layer

Sources

Source : Google machine learning glossary



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »