DataFranca en collaboration avec ses partenaires a préparé des capsules linguistiques et informatives sur les grands thèmes  de l’intelligence artificielle et de la science des données.

Qu’est-ce qu’un
« réseau de neurones »

Patrick Drouin 
Linguiste et terminologue
Professeur titulaire, Université de Montréal

Les réseaux de neurones, en anglais neural networks, sont inspirés du fonctionnement du système nerveux, lequel est organisé en fonction des liaisons qui s’établissent entre des neurones biologiques. 

En français, on dit « réseau de neurones », « réseau neuronal », parfois « réseau connexionniste » et « réseau de neurones artificiel ». Les réseaux de neurones effectuent des opérations sophistiquées et solutionnent des problèmes complexes tels que la reconnaissance des formes ou le traitement automatique de la langue grâce à l’ajustement de paramètres dans une phase d’entraînement sur les données.

Le neurone artificiel est la brique de base du réseau de neurones. Il s’inspire grossièrement d’un neurone biologique dont il simule quelques fonctions essentielles. À l’origine on voulait modéliser le fonctionnement du cerveau qui est caractérisé par l’interconnexion d’un grand nombre de cellules nerveuses ou de neurones. L’hypothèse de base est que l’activité mentale provient de l’activité biochimique des réseaux de neurones du cerveau. 

On peut dire que le neurone artificiel est au neurone naturel ce qu’un avion est à un oiseau.
Les deux sont capables de voler, mais ils le font de manières totalement différentes.

Claude Coulombe  
Doctorat en intelligence artificielle
Conseiller scientifique, DataFranca

Le premier modèle théorique de neurone artificiel a été proposé en 1943 par des chercheurs au MIT.
Le neurone artificiel fut amélioré en 1957 par Frank Rosenblatt pour créer le perceptron dont l’apprentissage se base sur la règle de Hebb, une idée du neuropsychologue Donald  Hebb de l’Université McGill. La règle de Hebb énonce que l’activation répétée d’un neurone par un autre crée ou renforce leur connexion de sorte que l’activation de l’un par l’autre sera plus facile à l’avenir, ce qui est considéré comme une première forme d’apprentissage neuronal.

L’intérêt principal des neurones réside dans leur organisation en réseaux et leur capacité de modifier la force de leurs connexions par apprentissage. Fait remarquable, les neurones au cœur des réseaux de neurones artificiels sont demeurés assez rudimentaires. L’évolution technologique s’est plutôt poursuivie du côté des architectures des réseaux de neurones.

Il persiste une certaine confusion quant au nombre de couches d’un réseau de neurones. En raison de leur position, la couche d’entrée (input layer) et la couche de sortie (output layer) d’un réseau de neurones jouent des rôles particuliers, qui sont l’entrée des données et le calcul final du résultat. 

Entre la couche d’entrée et de sortie se trouvent les couches cachées de neurones (hidden layers), là où se fait la plus grande partie du traitement des données. 

C’est le nombre de couches cachées qui définit la profondeur d’un réseau de neurones.