« Initialisation de Xavier » : différence entre les versions


m (Imeziani a déplacé la page Xavier Initialization vers Initialisation de Xavier)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées .


== Français ==
== Français ==
''' XXXXXXXXX '''
''' initialisation de Xavier '''


== Anglais ==
== Anglais ==
''' Xavier Initialization'''
''' Xavier Initialization'''
  Xavier initialization assigns the start weights in the first hidden layer so that the input signals reach deep into the neural network. It scales the weights based on the number of neurons and outputs. This way, it prevents the signal from either becoming too small or too large later in the network.
 


<small>
<small>


[https://towardsdatascience.com/the-deep-learning-ai-dictionary-ade421df39e4 Source : towardsdatascience ]
[https://qastack.fr/stats/319323/whats-the-difference-between-variance-scaling-initializer-and-xavier-initialize  Source: QA Stack]




[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 7 janvier 2022 à 18:56

Définition

Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées .

Français

initialisation de Xavier

Anglais

Xavier Initialization


Source: QA Stack



Contributeurs: Imane Meziani, wiki