En réponse à (1), il est possible que les variables explicatives avec de faibles corrélations marginales deviennent importantes lorsque l'entrée dans une régression multiple. Par exemple, si X1 et X2 sont négativement corrélés entre eux et influencent positivement Y, la relation entre Y et X1 peut être confondue par l'influence de X2 (et vice versa).
Les régressions multiples estiment efficacement la relation entre la réponse et chaque variable explicative en contrôlant l'influence de tous les autres termes dans le modèle, de sorte que cette confusion est effectivement supprimée. Le code à la fin de ce post montre un exemple hypothétique. Ayant dit ce qui précède, il semble plus probable que vos faibles corrélations reflètent que vos variables explicatives ne sont pas de bons prédicteurs de votre réponse, plutôt que d'être de bons prédicteurs qui se confondent les uns les autres. Un seul moyen de savoir si.
En réponse à (2), il est également possible qu'un modèle non linéaire donnera une meilleure précision prédictive qu'un modèle linéaire. Dans mon expérience cependant, si vous avez une faible précision prédictive d'un type de modèle, d'autres types de modèles ont peu de chance de bien fonctionner.
est ici que le code exemple je l'ai mentionné ci-dessus:
# Make example data
X1 = rnorm(100)
X2 = -X1 + runif(100)/10 #X2 is negatively correlated with X1
Y = X1 + X2 + runif(100)
# Check correlations
cor(X1, Y) #should give low correlation
cor(X2, Y) # should give low correlation
cor(X1, X2) # should give high (negative) correlation
# Fit model and extract pvalues. Should find significant relationships between Y and X1 and X2 despite the low correlations
fit = lm(Y ~ X1 + X2)
summary(fit)$coefficients[, "Pr(>|t|)"] # pvalues
Tenir compte poster votre question https://stats.stackexchange.com/ –