« Algorithme à directions de descente » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — « <!-- Scotty2 --> » par «  »)
Ligne 16 : Ligne 16 :
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Algorithme d'optimisation]]
[[Catégorie:Algorithme d'optimisation]]
<!-- Scotty2 -->
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 6 mai 2020 à 01:50

Définition

L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué le long d'une direction de descente, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire.

Français

algorithme à directions de descente loc. nom. masc.

Anglais

descent direction algorithm


Source:Wikipedia IA

Contributeurs: Jacques Barolet, wiki