« Régression par moindre angle » : différence entre les versions
m (ClaireGorjux a déplacé la page Least-angle regression vers Régression par moindre angle) |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
En statistique, la régression du moindre angle (LARS) est un algorithme d'ajustement des modèles de régression linéaire à des données hautement dimensionnelles, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani[1]. | |||
Supposons que nous nous attendions à ce qu'une variable de réponse soit déterminée par une combinaison linéaire d'un sous-ensemble de covariables potentielles. L'algorithme LARS fournit alors un moyen de produire une estimation des variables à inclure, ainsi que de leurs coefficients. | |||
Au lieu de donner un résultat vectoriel, la solution LARS consiste en une courbe indiquant la solution pour chaque valeur de la norme L1 du vecteur de paramètres. L'algorithme est similaire à la régression pas à pas, mais au lieu d'inclure des variables à chaque étape, les paramètres estimés sont augmentés dans une direction équiangulaire aux corrélations de chacun avec le résidu. | |||
== Français == | == Français == | ||
''' | '''régression par moindre angle''' | ||
'''régression du moindre angle''' | |||
== Anglais == | == Anglais == | ||
''' Least-angle regression ''' | ''' Least-angle regression ''' | ||
<small> | |||
[https://en.wikipedia.org/wiki/Least-angle_regression Source : Wikipedia Machine Learning ] | |||
[http://espace.inrs.ca/id/eprint/2771/1/R001594.pdf Source : INRS ] | |||
[https://fr.acervolima.com/regression-du-moindre-angle-lars/ Source : Acervo Lima ] | |||
[https:// | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] | ||
[[Catégorie:Wikipedia-IA]] | [[Catégorie:Wikipedia-IA]] |
Version du 19 mai 2021 à 12:30
Définition
En statistique, la régression du moindre angle (LARS) est un algorithme d'ajustement des modèles de régression linéaire à des données hautement dimensionnelles, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani[1].
Supposons que nous nous attendions à ce qu'une variable de réponse soit déterminée par une combinaison linéaire d'un sous-ensemble de covariables potentielles. L'algorithme LARS fournit alors un moyen de produire une estimation des variables à inclure, ainsi que de leurs coefficients.
Au lieu de donner un résultat vectoriel, la solution LARS consiste en une courbe indiquant la solution pour chaque valeur de la norme L1 du vecteur de paramètres. L'algorithme est similaire à la régression pas à pas, mais au lieu d'inclure des variables à chaque étape, les paramètres estimés sont augmentés dans une direction équiangulaire aux corrélations de chacun avec le résidu.
Français
régression par moindre angle
régression du moindre angle
Anglais
Least-angle regression
Contributeurs: Claire Gorjux, Imane Meziani, wiki