« Autoencodeurs peu denses » : différence entre les versions


m (Pitpitt a déplacé la page Sparse Auto Encoder vers Autoencodeurs peu denses)
Aucun résumé des modifications
Ligne 5 : Ligne 5 :
= La régularisation L1, que nous utiliserons dans cet article.
= La régularisation L1, que nous utiliserons dans cet article.
* La divergence KL, que nous aborderons dans le prochain article.
* La divergence KL, que nous aborderons dans le prochain article.


== Français ==
== Français ==
Ligne 13 : Ligne 12 :
''' Sparse Auto Encoder'''
''' Sparse Auto Encoder'''




[https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/  Source : debuggercafe]
[https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/  Source : debuggercafe]


 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
 
[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 17 novembre 2023 à 22:17

Définition

Dans les autoencodeurs peu denses, nous pouvons toujours utiliser des neurones entièrement connectés dont le nombre est égal à la dimensionnalité de l'image. Cependant, l'ajout d'une régularisation de la densité permet d'empêcher le réseau neuronal de copier l'entrée.

Il existe principalement deux façons d'ajouter des contraintes de densité aux autoencodeurs profonds. = La régularisation L1, que nous utiliserons dans cet article.

  • La divergence KL, que nous aborderons dans le prochain article.

Français

Autoencodeurs peu denses

Anglais

Sparse Auto Encoder


Source : debuggercafe



Contributeurs: Marie Alfaro, wiki