« Autoencodeurs peu denses » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵↵↵ » par « ») |
||
(3 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
Dans les autoencodeurs peu denses, nous pouvons toujours utiliser des neurones entièrement connectés dont le nombre est égal à la dimensionnalité de l'image. Cependant, l'ajout d'une régularisation de la densité permet d'empêcher le réseau neuronal de copier l'entrée. | |||
= | Il existe principalement deux façons d'ajouter des contraintes de densité aux autoencodeurs profonds. | ||
= La régularisation L1, que nous utiliserons dans cet article. | |||
* La divergence KL, que nous aborderons dans le prochain article. | |||
== Français == | == Français == | ||
''' | ''' Autoencodeurs peu denses ''' | ||
== Anglais == | == Anglais == | ||
''' Sparse Auto Encoder''' | ''' Sparse Auto Encoder''' | ||
[https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/ Source : debuggercafe] | [https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/ Source : debuggercafe] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 29 janvier 2024 à 10:30
Définition
Dans les autoencodeurs peu denses, nous pouvons toujours utiliser des neurones entièrement connectés dont le nombre est égal à la dimensionnalité de l'image. Cependant, l'ajout d'une régularisation de la densité permet d'empêcher le réseau neuronal de copier l'entrée.
Il existe principalement deux façons d'ajouter des contraintes de densité aux autoencodeurs profonds. = La régularisation L1, que nous utiliserons dans cet article.
- La divergence KL, que nous aborderons dans le prochain article.
Français
Autoencodeurs peu denses
Anglais
Sparse Auto Encoder
Contributeurs: Marie Alfaro, wiki