« Initialisation de Xavier » : différence entre les versions


m (Imeziani a déplacé la page Xavier Initialization vers Initialisation de Xavier)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(2 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
== Définition ==
XXXXXXXXX
Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées .


== Français ==
== Français ==
''' XXXXXXXXX '''
''' initialisation de Xavier '''


== Anglais ==
== Anglais ==
''' Xavier Initialization'''
''' Xavier Initialization'''
  Xavier initialization assigns the start weights in the first hidden layer so that the input signals reach deep into the neural network. It scales the weights based on the number of neurons and outputs. This way, it prevents the signal from either becoming too small or too large later in the network.


<small>


[https://towardsdatascience.com/the-deep-learning-ai-dictionary-ade421df39e4 Source : towardsdatascience ]
 
==Sources==
 
[https://qastack.fr/stats/319323/whats-the-difference-between-variance-scaling-initializer-and-xavier-initialize  Source: QA Stack]




[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 27 janvier 2024 à 23:00

Définition

Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées .

Français

initialisation de Xavier

Anglais

Xavier Initialization


Sources

Source: QA Stack

Contributeurs: Imane Meziani, wiki