« Méthode du gradient conjugué » : différence entre les versions


m (Remplacement de texte — « category:Vocabulaire2  » par « <!-- Vocabulaire2 --> »)
m (Remplacement de texte — « Catégorie:scotty2  » par « <!-- Scotty2 --> »)
Ligne 4 : Ligne 4 :
[[Catégorie:Apprentissage automatique]]  
[[Catégorie:Apprentissage automatique]]  
[[Catégorie:Algorithme d'optimisation]]
[[Catégorie:Algorithme d'optimisation]]
[[Catégorie:scotty2]]
<!-- Scotty2 -->
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]



Version du 3 juillet 2019 à 10:00


Définition

En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).

Français

méthode du gradient conjugué n.f.

Anglais

conjugated gradient method


Source:Wikipedia IA



Contributeurs: Jacques Barolet, wiki