« Autoencodeurs peu denses » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Dans les autoencodeurs peu denses, nous pouvons toujours utiliser des neurones entièrement connectés dont le nombre est égal à la dimensionnalité de l'image. Cependant, l'ajout d'une régularisation de la densité permet d'empêcher le réseau neuronal de copier l'entrée.
 
Il existe principalement deux façons d'ajouter des contraintes de densité aux autoencodeurs profonds.
= La régularisation L1, que nous utiliserons dans cet article.
* La divergence KL, que nous aborderons dans le prochain article.


== Définition ==
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
''' Autoencodeurs peu denses '''


== Anglais ==
== Anglais ==
Ligne 11 : Ligne 14 :




In sparse autoencoders, we can still use fully connected neurons with numbers equal to the image dimensionality. But still, by adding a sparsity regularization, we will be able to stop the neural network from copying the input.
   
   
Mainly, there are two ways to add sparsity constraints to deep autoencoders.
= L1 regularization, which we will use in this article.
* KL divergence, which we will address in the next article.
<small>


[https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/  Source : debuggercafe]
[https://debuggercafe.com/sparse-autoencodersusing-l1-regularization-with-pytorch/  Source : debuggercafe]
Ligne 26 : Ligne 22 :


[[Catégorie:vocabulary]]
[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 17 novembre 2023 à 17:15

Définition

Dans les autoencodeurs peu denses, nous pouvons toujours utiliser des neurones entièrement connectés dont le nombre est égal à la dimensionnalité de l'image. Cependant, l'ajout d'une régularisation de la densité permet d'empêcher le réseau neuronal de copier l'entrée.

Il existe principalement deux façons d'ajouter des contraintes de densité aux autoencodeurs profonds. = La régularisation L1, que nous utiliserons dans cet article.

  • La divergence KL, que nous aborderons dans le prochain article.


Français

Autoencodeurs peu denses

Anglais

Sparse Auto Encoder



Source : debuggercafe

Contributeurs: Marie Alfaro, wiki