Catégorie:Apprentissage profond
L'apprentissage profond1 (en anglais deep learning, deep structured learning, hierarchical learning) est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires[réf. souhaitée]. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Dans les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part du GAFA (Google, Apple, Facebook, Amazon)2.
Pages dans la catégorie « Apprentissage profond »
Cette catégorie comprend 246 pages, dont les 100 ci-dessous.
(page précédente) (page suivante)A
- Algorithme EM
- Analyse de séries temporelles
- Analyse des caractéristiques lentes
- Analyse en sous-espaces indépendants
- Analyse factorielle
- Anomalies
- API Dataset (tf.data)
- API Layers (tf.layers)
- API Metrics (tf.metrics)
- Appariement des rapports
- Appariement des scores généralisés
- Apprentissage
- Apprentissage avide
- Apprentissage d'attributs
- Apprentissage de bout-en-bout
- Apprentissage de représentations
- Apprentissage de variété
- Apprentissage ensembliste
- Apprentissage non supervisé
- Apprentissage par renforcement profond
- Apprentissage partiellement supervisé
- Arrêt prématuré
- Astuce de centrage
- Auto-encodeur contractif
- Autoencodeur variationnel
C
- Caffe
- Canal
- Caractéristique creuse
- Caractéristique dense
- Caractéristique discrète
- Caractéristique synthétique
- Classe
- Classe négative
- Classe positive
- Classification temporelle connexionniste
- Classification à classes multiples
- Collisionneur
- Combinaison linéaire
- Conditions de Karush-Kuhn-Tucker
- Connexion résiduelle
- Constante de Lipschitz
- Convergence
- Convolution séparable
- Correspondance de moment
- Couche cachée
- Couche convolutive
- Couche d'entrée
- Couche de sortie
- Couche de sous-échantillonnage
- Couche d’autoroute
- Couche entièrement connectée
- Courbe d'apprentissage
- Courbe ROC
- Croisement de caractéristiques
- Croyance antérieure
D
- Densité de probabilité
- Descente de gradient stochastique
- Dimension de Vapnik-Chervonenkis
- Distribution de Dirac
- Divergence contractive persistante
- Données disséminées
- Données exclues
- Données numériques
- Double rétropropagation
- Décomposition en valeurs singulières
- Décomposition parcimonieuse prévisionnelle
- Dérivée fonctionnelle
- Dérivée partielle
E
- Échantillonnage ancestral
- Échantillonnage de candidats
- Échantillonnage de Gibbs
- Échantillonnage d’importance biaisé
- Échelonnage des poids
- Ecrêtage de gradient
- ELMo
- Ensemble convexe
- Ensemble d'apprentissage
- Ensemble d'évaluation
- Ensemble de caractéristiques
- Ensemble de données avec déséquilibre des classes
- Entraînement de modèle
- Entropie croisée
- Époque
- Équation d'Euler-Lagrange
- Équivariance
- Erreur d'entraînement
- Erreur entropie croisée catégorielle
- Estimateur
- Estimateur asymptotiquement sans biais
- Estimateur personnalisé
- Étiquette
- Évaluateur
- Exemple
- Exemple sans étiquette
- Exemple étiqueté
- Extinction de neurone
- Extraction de caractéristiques