« Régression par moindre angle » : différence entre les versions


m (ClaireGorjux a déplacé la page Least-angle regression vers Régression par moindre angle)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
En statistique, la régression du moindre angle (LARS) est un algorithme d'ajustement des modèles de régression linéaire à des données hautement dimensionnelles, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani[1].


== Définition ==
Supposons que nous nous attendions à ce qu'une variable de réponse soit déterminée par une combinaison linéaire d'un sous-ensemble de covariables potentielles. L'algorithme LARS fournit alors un moyen de produire une estimation des variables à inclure, ainsi que de leurs coefficients.
XXXXXXXXX
 
Au lieu de donner un résultat vectoriel, la solution LARS consiste en une courbe indiquant la solution pour chaque valeur de la norme L1 du vecteur de paramètres. L'algorithme est similaire à la régression pas à pas, mais au lieu d'inclure des variables à chaque étape, les paramètres estimés sont augmentés dans une direction équiangulaire aux corrélations de chacun avec le résidu.


== Français ==
== Français ==
''' XXXXXXXXX '''
'''régression par moindre angle'''
 
'''régression du moindre angle'''


== Anglais ==
== Anglais ==
''' Least-angle regression '''
''' Least-angle regression '''


In statistics, least-angle regression (LARS) is an algorithm for fitting linear regression models to high-dimensional data, developed by Bradley Efron, Trevor Hastie, Iain Johnstone and Robert Tibshirani.[1]
<small>


Suppose we expect a response variable to be determined by a linear combination of a subset of potential covariates. Then the LARS algorithm provides a means of producing an estimate of which variables to include, as well as their coefficients.
[https://en.wikipedia.org/wiki/Least-angle_regression Source : Wikipedia  Machine Learning ]


Instead of giving a vector result, the LARS solution consists of a curve denoting the solution for each value of the L1 norm of the parameter vector. The algorithm is similar to forward stepwise regression, but instead of including variables at each step, the estimated parameters are increased in a direction equiangular to each one's correlations with the residual.
[http://espace.inrs.ca/id/eprint/2771/1/R001594.pdf  Source : INRS ]


 
[https://fr.acervolima.com/regression-du-moindre-angle-lars/   Source : Acervo Lima ]  
 
<small>
 
[https://en.wikipedia.org/wiki/Least-angle_regression Source : Wikipedia  Machine Learning ]




[[Catégorie:vocabulary]]
[[Catégorie:vocabulary]]
[[Catégorie:Wikipedia-IA‎]]
[[Catégorie:Wikipedia-IA‎]]

Version du 19 mai 2021 à 12:30

Définition

En statistique, la régression du moindre angle (LARS) est un algorithme d'ajustement des modèles de régression linéaire à des données hautement dimensionnelles, développé par Bradley Efron, Trevor Hastie, Iain Johnstone et Robert Tibshirani[1].

Supposons que nous nous attendions à ce qu'une variable de réponse soit déterminée par une combinaison linéaire d'un sous-ensemble de covariables potentielles. L'algorithme LARS fournit alors un moyen de produire une estimation des variables à inclure, ainsi que de leurs coefficients.

Au lieu de donner un résultat vectoriel, la solution LARS consiste en une courbe indiquant la solution pour chaque valeur de la norme L1 du vecteur de paramètres. L'algorithme est similaire à la régression pas à pas, mais au lieu d'inclure des variables à chaque étape, les paramètres estimés sont augmentés dans une direction équiangulaire aux corrélations de chacun avec le résidu.

Français

régression par moindre angle

régression du moindre angle

Anglais

Least-angle regression

Source : Wikipedia Machine Learning

Source : INRS

Source : Acervo Lima

Contributeurs: Claire Gorjux, Imane Meziani, wiki