« Cote logarithmique » : différence entre les versions
m (Pitpitt a déplacé la page Ordonnée à l'origine vers Cote logarithmique) |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Pour les '''[[Modèle linéaire généralisé | modèles linéaires]]''', l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En '''[[régression linéaire]]''', cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la '''[[régression logistique]]''', il s'agit de la cote logarithmique du groupe de référence | Pour les '''[[Modèle linéaire généralisé | modèles linéaires]]''', l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En '''[[régression linéaire]]''', cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la '''[[régression logistique]]''', il s'agit de la cote logarithmique du groupe de référence. | ||
En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle. | En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle. | ||
Version du 21 janvier 2021 à 11:30
en construction
Définition
Pour les modèles linéaires, l'intersection est la valeur du prédicteur linéaire lorsque toutes les covariables sont nulles. En régression linéaire, cela équivaut à l'ordonnée à l'origine de la droite de meilleur ajustement. Dans la régression logistique, il s'agit de la cote logarithmique du groupe de référence. En somme, nous ajoutons le biais pour améliorer l'interprétabilité et ajouter de la flexibilité au modèle.
Français
Ordonnée à l'origine
Intersection
Cote logarithmique
Anglais
Intercept
Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018
Contributeurs: Jacques Barolet, wiki