Calculer les coefficients standardisés (beta) dans une régression multiple : la fonction lm.beta()

April 5, 2011
By

This post was kindly contributed by R pour les nuls - go there to comment and to read the full post.

Quand on fait une régression multiple, on a parfois envie de comparer les variables prédictrices pour savoir laquelle est la plus importante. Or, on ne peut pas comparer directement les coefficients de régression des variables car ils dépendent de l’échelle de mesure des variables prédictrices et de la variable à expliquer. Une solution est de comparer les coefficients standardisés, aussi appelés les coefficients « beta ». Le problème, c’est que R ne les fournit pas par défaut. Mais en installant le package « QuantPsyc », on peut les obtenir facilement avec la fonction « lm.beta ». Voici un exemple :

On veut expliquer une variable y à l’aide de 2 prédicteurs (x1 et x2). On crée d’abord ces 3 variables :

>  y <- c(1,2,4,5,7,9,10) # création de la variable à expliquer
>  x1 <- c(3,5,5,9,14,13,17) # création de la première variable prédictrice
>  x2 <- c(175,190,210,240,265,302,341) # création de la seconde variable prédictrice

On lance ensuite la régression multiple :

>  summary(lm(y~x1+x2)) # résumé de l’analyse de régression multiple

Par défaut, R nous donne les coefficients de régression de chaque prédicteur (dans l’exemple, x1 et x2 ont tous les deux un coefficient d’environ 0.05, on les trouve dans la colonne « estimate »), mais on ne peut pas les comparer. Pour faire cela, on va installer le package (QuantPsyc) :

> install.packages("QuantPsyc") # installation du package
> library(QuantPsyc) # chargement du package

On utilise ensuite la fonction lm.beta :

> lm.beta(lm(y~x1+x2)) # on demande les coefficients standardisés

Ces 2 coefficients sont maintenant comparables (on voit d’ailleurs que x2 est bien plus important que x1). 

Tags: , , ,

Comments are closed.