« Cote logarithmique » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
 
(12 versions intermédiaires par le même utilisateur non affichées)
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
Pour les '''[[Modèle linéaire généralisé  | modèles linéaires]]''', l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En '''[[régression linéaire]]''', cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la '''[[régression logistique]]''', il s'agit de la cote logarithmique du groupe de référence.
En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle.


== Français ==
== Français ==
'''ordonnée à l'origine'''
'''Ordonnée à l'origine'''
== Anglais ==
'''intercept'''


use of intercept in regression? :
'''Intersection'''
For linear models, the intercept is the value of the linear predictor when all covariates are zero. In linear regression, this is equivalent to the y-intercept of the line of best fit. In logistic regression, it is the log odds of the baseline group. Suppose we did not add an intercept term for the regression. We would then be positing that when all covariates are 0, the linear predictor is 0. In summation, we add the bias to improve interpretability and add flexibility to the model.


Having no independent variables means no prediction can be made. Suppose you have a model for cancer incidence based on age. Since you do not know my age, you can not put my data into your model, and thus you can not make predictions.
'''Cote logarithmique'''


== Anglais ==
'''Intercept'''


<small>
==Sources==
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 ]


[https://stats.stackexchange.com/questions/380201/machine-learning-use-of-intercept-in-regression  Source : stackexchange.com]
[https://stats.stackexchange.com/questions/380201/machine-learning-use-of-intercept-in-regression  Source : stackexchange.com]


[[Catégorie:vocabulaire]]
[https://fr.wikipedia.org/wiki/Ordonn%C3%A9e_%C3%A0_l'origine  Source : wikipedia]
[[Catégorie:App-profond-livre]]
 
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 29 janvier 2024 à 10:20

en construction

Définition

Pour les modèles linéaires, l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En régression linéaire, cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la régression logistique, il s'agit de la cote logarithmique du groupe de référence. En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle.

Français

Ordonnée à l'origine

Intersection

Cote logarithmique

Anglais

Intercept

Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018

Source : stackexchange.com

Source : wikipedia



Contributeurs: Jacques Barolet, wiki