J'ai un énorme fichier csv, 1,37 Go, et lors de l'exécution de mon GLM en R, il se bloque parce que je n'ai pas assez de mémoire allouée. Vous savez, l'erreur régulière ..Un moyen efficace de gérer les gros volumes de données en R
N'y a-t-il pas d'alternative aux paquets ff et bigmemory, car ils ne semblent pas fonctionner correctement pour moi, parce que mes colonnes sont un mélange d'entiers et de caractères, et il semble que les deux packages Je dois spécifier le type de mes colonnes, char ou entier.
Nous serons bientôt en 2018 et sur le point de mettre des gens sur Mars; n'y a-t-il pas une simple fonction "read.csv.xxl" que nous pouvons utiliser?
Vous n'avez pas 2 Go de mémoire sur votre ordinateur? Peut-être le temps de mettre à niveau. – lmo
J'ai 8 Go, mais le calcul glm se bloque. – HeyJane
fait l'un des pointeurs dans http://www.bnosac.be/index.php/blog/10-bigglm-on-your-big-data-set-in-open-source-r-it-just-works -similaire-comme-dans-le travail de sas? – hrbrmstr