« Méthode du gradient conjugué » : différence entre les versions
m (Remplacement de texte — « Catégorie:scotty2 » par « <!-- Scotty2 --> ») |
m (Remplacement de texte — « Catégorie:Wikipedia-IA2 » par « <!-- Wikipedia-IA2 --> ») |
||
Ligne 1 : | Ligne 1 : | ||
<!-- Vocabulaire2 --> | <!-- Vocabulaire2 --> | ||
<!-- Wikipedia-IA2 --> | |||
[[Catégorie:Apprentissage automatique]] | [[Catégorie:Apprentissage automatique]] | ||
[[Catégorie:Algorithme d'optimisation]] | [[Catégorie:Algorithme d'optimisation]] |
Version du 3 juillet 2019 à 21:18
Définition
En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Français
méthode du gradient conjugué n.f.
Anglais
conjugated gradient method
Contributeurs: Jacques Barolet, wiki