Bonjour poupou2
Il faut bien comprendre que les valeurs seuils (30 pour condition index et 10 pour le VIF) ne sont données qu'à titre indicatif.
En effet, la distribution de ces statistiques est imprévisible (dépend uniquement des données empiriques) et il est difficile de donner des valeurs pour lesquelles la tendance est forte ou faible. C'est un peu comme lorsqu'on dit qu'il faut 30 exemples pour qu'une v.a moyenne soit approximativement normale. Dans des distributions très dissymétriques (=écart moyenne-médiane fort), ce chiffre ne veut plus rien dire...
Tout ça pour dire que je trouve ces valeurs tombées du ciel sans aucun sens. Personnellement, ces statistiques me semblent utiles pour comparer un modèle à un autre, mais pas pour évaluer conrètement la multicolinéarité. Dans une optique un peu plus "théorique", il existe un test de présence de multicolinéarité dans un modèle (j'ai oublié le nom),mais il ressemble à la tolérance (i.e, il utilise le calcul du déterminant de (X'X) ).
Par contre, il y a une technique hyper efficace pour lutter contre la multicolinéarité en régression linéaire, c'est la régression PLS (Partial Least Squares). J'ai eu l'occasion d'en faire une étude théorique et pratique assez approfondie lorsque j'étais en DEA. Et c'est vrai que ça marche très bien. Cette méthode est implémentée dans SAS (proc PLS).
Voilà tout!
a+