« Initialisation de Xavier » : différence entre les versions
m (Imeziani a déplacé la page Xavier Initialization vers Initialisation de Xavier) |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(2 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées . | |||
== Français == | == Français == | ||
''' | ''' initialisation de Xavier ''' | ||
== Anglais == | == Anglais == | ||
''' Xavier Initialization''' | ''' Xavier Initialization''' | ||
[https:// | |||
==Sources== | |||
[https://qastack.fr/stats/319323/whats-the-difference-between-variance-scaling-initializer-and-xavier-initialize Source: QA Stack] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 27 janvier 2024 à 23:00
Définition
Initialement proposée par Xavier Glorot et Yoshua Bengio dans "Comprendre la difficulté de former des réseaux de neurones profonds à action directe" , c'est la technique d'initialisation des poids qui essaie de rendre la variance des sorties d'une couche égale à la variance de ses entrées .
Français
initialisation de Xavier
Anglais
Xavier Initialization
Sources
Contributeurs: Imane Meziani, wiki