« Convolution pavée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
 
(5 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
[[Catégorie:vocabulaire]]
[[Catégorie:App-profond-livre]]
== Définition ==
== Définition ==
Les couches cachées des réseaux neuronaux convolutifs réduisent le nombre de paramètres en "liant" les poids N x N adjacents entourant chaque neurone d'entrée. Chaque neurone de la couche cachée (convolutionnelle) n'est connecté qu'à une grille N x N de ses voisins (centrée sur un neurone donné de la couche d'entrée), et les poids correspondants dans chaque grille N x N reliant chaque neurone de la couche cachée à la couche d'entrée sont les mêmes (partagés) pour tous les neurones de la couche cachée. Ce "champ réceptif local" pondéré est mathématiquement équivalent à une opération de convolution (et une convolution est un cas particulier de l'opération plus générale de "multiplication matricielle", exprimée dans les réseaux neuronaux entièrement connectés où les poids sont "déliés").


== Français ==
== Français ==
'''convolution pavée'''
'''Convolution pavée'''
   
   
== Anglais ==
== Anglais ==
'''tiled convolution'''
'''Tiled convolution'''
==Sources==


[https://www.quora.com/What-is-a-tiled-convolutional-neural-network  Source : quora]
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]


<small>
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[https://www.apprentissageprofond.org/  Source : ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]

Dernière version du 29 janvier 2024 à 11:46

Définition

Les couches cachées des réseaux neuronaux convolutifs réduisent le nombre de paramètres en "liant" les poids N x N adjacents entourant chaque neurone d'entrée. Chaque neurone de la couche cachée (convolutionnelle) n'est connecté qu'à une grille N x N de ses voisins (centrée sur un neurone donné de la couche d'entrée), et les poids correspondants dans chaque grille N x N reliant chaque neurone de la couche cachée à la couche d'entrée sont les mêmes (partagés) pour tous les neurones de la couche cachée. Ce "champ réceptif local" pondéré est mathématiquement équivalent à une opération de convolution (et une convolution est un cas particulier de l'opération plus générale de "multiplication matricielle", exprimée dans les réseaux neuronaux entièrement connectés où les poids sont "déliés").

Français

Convolution pavée

Anglais

Tiled convolution

Sources

Source : quora Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018



Contributeurs: Jacques Barolet, Marie Alfaro, wiki