2011-03-16 5 views
1

Je traçant un graphique des séries chronologiques en utilisant ggplot, mais chaque fois que la taille de la trame de données est supérieure à environ 600, ggplot jette l'erreur suivante:R/erreur ggplot: trop grand pour hachant

Error in anyDuplicated.default(breaks) : length 1136073601 is too large for hashing

En fait, ça m'a juste donné la même erreur quand j'ai essayé de tracer 400 objets.

Les données sont donc fondu comme, sauf qu'il ya quatre vitesses variables-, dir, température et pression:

    time variable  value 
1 2006-07-01 00:00:00 speed 4.180111 
2 2006-07-02 00:00:00 speed 5.527226 
3 2006-07-09 00:00:00 speed 6.650821 
4 2006-07-16 00:00:00 speed 4.380063 
5 2006-07-23 00:00:00 speed 5.641709 
6 2006-07-30 00:00:00 speed 7.636913 
7 2006-08-06 00:00:00 speed 7.128334 
8 2006-08-13 00:00:00 speed 4.719046 
... 
201 2006-07-01 00:00:00  temp 17.140069 
202 2006-07-02 00:00:00  temp 17.517480 
203 2006-07-09 00:00:00  temp 14.211002 
204 2006-07-16 00:00:00  temp 20.121617 
205 2006-07-23 00:00:00  temp 17.933492 
206 2006-07-30 00:00:00  temp 15.244583 

Mon code pour tracer ces appels est basé sur ce que je trouve ici: http://had.co.nz/ggplot2/scale_date.html

qplot(time,value,data=test3,geom="line",group=variable) + 
+ facet_grid(variable ~ ., scale = "free_y") 

Toutes les pointeurs et je serais très reconnaissant !!

masser la date du caractère à ce jour j'utilise:

test$time <- strptime(test$time, format="%Y-%m-%d %H:%M:%S") 
test$time <- as.POSIXct(test$time, format="%H:%M:%S") 
test3 = melt(test,id="time") 

retourne classe (test temps $) "[1] "POSIXt" "POSIXct""

+0

Hmmmm. Essayez de mettre à jour plyr? Cela peut être lié à un ancien bug. – hadley

+0

Je semble avoir la version 1.4. J'ai essayé de mettre à jour mais il semblait mettre à jour tout sauf Plyr! Si j'exécute ceci sur ma machine locale en utilisant un fichier texte cela semble correct, mais à distance en utilisant RMySQL ça ne marche pas – Chris

+0

Aussi, par hasard, que dois-je faire pour afficher les lacunes dans les données où il manque des données? – Chris

Répondre