« Algorithme à directions de descente » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 2 : | Ligne 2 : | ||
[[category:Vocabulaire2]] | [[category:Vocabulaire2]] | ||
[[Catégorie:Wikipedia-IA2]] | [[Catégorie:Wikipedia-IA2]] | ||
[[Catégorie:Apprentissage automatique]] | [[Catégorie:Apprentissage automatique]] Apprentissage automatique<br> | ||
[[Catégorie:Algorithme d'optimisation]] | [[Catégorie:Algorithme d'optimisation]]Algorithme d'optimisation | ||
[[Catégorie:scotty2]] | [[Catégorie:scotty2]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
==Définition== | ==Définition== | ||
L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, <math>\R^n</math>, l'espace des ''<big>n</big>''-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire.<br> | L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, <math>\R^n</math>, l'espace des ''<big>n</big>''-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire.<br> | ||
==Français== | ==Français== | ||
'''algorithme à directions de descente''' <small>locution nominale, masculin</small> | '''algorithme à directions de descente''' <small>locution nominale, masculin</small> | ||
==Anglais== | ==Anglais== | ||
'''descent direction algorithm''' | '''descent direction algorithm''' | ||
[https://fr.wikipedia.org/wiki/Algorithme_%C3%A0_directions_de_descente Source:Wikipedia IA] | [https://fr.wikipedia.org/wiki/Algorithme_%C3%A0_directions_de_descente Source:Wikipedia IA] | ||
Version du 15 juin 2019 à 09:34
Domaine
Apprentissage automatique
Algorithme d'optimisation
Définition
L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire.
Français
algorithme à directions de descente locution nominale, masculin
Anglais
descent direction algorithm
Contributeurs: Jacques Barolet, wiki