« Architecture de réseau de neurones » : différence entre les versions


m (Remplacement de texte — « <!-- Vocabulaire --> » par «  »)
Aucun résumé des modifications
 
(13 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
L'architecture d'un [[réseau de neurones]] est l'organisation des neurones en couches et en liens d'interconnexion.


[[Catégorie:Intelligence artificielle]]
On distingue deux grandes architectures de réseau de neurones. D'abord, les réseaux non bouclés où le signal circule vers l'avant de l'entrée vers la sortie ou [[réseau de neurones à propagation avant]]. Il n'y a pas de cycles ou de boucles dans ce type de réseau. Aussi, les réseaux bouclés qui comportent des retours en arrière du signal. Attention! Il ne faut pas confondre le retour arrière du signal (via une boucle ou cycle) et le retour arrière de l'erreur ou [[rétropropagation]] qui sert à l'algorithme d'apprentissage mais qui ne fait pas partie de l'architecture du réseau proprement dite.


== Définition ==
Il existe plusieurs architectures typiques de réseau de neurones: [[perceptron multicouche]], [[réseau autoattentif]], [[réseau convolutif]], [[réseau d'espaces d'états structurés]], [[réseau récurrent]], etc.


<br />
== Compléments ==
L’architecture des réseaux de neurones est un sujet de recherche très actif et beaucoup d'articles de recherche font état de la création de nouvelles architectures ou d’améliorations à des architectures existantes. La mise au point de nouvelles architectures de réseaux de neurones est devenu un paradigme important de la recherche actuelle en IA.


Avec l’apprentissage profond, l'ingénierie des architectures de réseaux de neurones a remplacé l'[[ingénierie des attributs]]. Cela représente une approche totalement nouvelle par rapport à l’ingénierie des attributs, car il faut mettre beaucoup d’effort du côté de la conception des architectures ou des modèles sous-jacent.
<hr/>
La capacité d'apprentissage d'un réseau de neurones réside davantage son organisation en réseau, c'est-à-dire son architecture, que dans la capacité de calcul des neurones individuels qui reste étonnamment simple.
== Français ==
== Français ==
=== Architecture de réseau de neurone===
'''Architecture de réseau de neurones'''


== Anglais ==
== Anglais ==
===Neural network architecture ===
'''Neural network architecture'''
 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 6 juin 2024 à 15:57

Définition

L'architecture d'un réseau de neurones est l'organisation des neurones en couches et en liens d'interconnexion.

On distingue deux grandes architectures de réseau de neurones. D'abord, les réseaux non bouclés où le signal circule vers l'avant de l'entrée vers la sortie ou réseau de neurones à propagation avant. Il n'y a pas de cycles ou de boucles dans ce type de réseau. Aussi, les réseaux bouclés qui comportent des retours en arrière du signal. Attention! Il ne faut pas confondre le retour arrière du signal (via une boucle ou cycle) et le retour arrière de l'erreur ou rétropropagation qui sert à l'algorithme d'apprentissage mais qui ne fait pas partie de l'architecture du réseau proprement dite.

Il existe plusieurs architectures typiques de réseau de neurones: perceptron multicouche, réseau autoattentif, réseau convolutif, réseau d'espaces d'états structurés, réseau récurrent, etc.

Compléments

L’architecture des réseaux de neurones est un sujet de recherche très actif et beaucoup d'articles de recherche font état de la création de nouvelles architectures ou d’améliorations à des architectures existantes. La mise au point de nouvelles architectures de réseaux de neurones est devenu un paradigme important de la recherche actuelle en IA.

Avec l’apprentissage profond, l'ingénierie des architectures de réseaux de neurones a remplacé l'ingénierie des attributs. Cela représente une approche totalement nouvelle par rapport à l’ingénierie des attributs, car il faut mettre beaucoup d’effort du côté de la conception des architectures ou des modèles sous-jacent.


La capacité d'apprentissage d'un réseau de neurones réside davantage son organisation en réseau, c'est-à-dire son architecture, que dans la capacité de calcul des neurones individuels qui reste étonnamment simple.

Français

Architecture de réseau de neurones

Anglais

Neural network architecture