je travaille sur js dc et crossfilter et moi avons actuellement un grand ensemble de données avec 550.000 lignes et la taille 60mb csv et je suis face à beaucoup de problèmes avec comme navigateur plante etcDC et crossfilter avec de grands ensembles de données
Alors , J'essaie de comprendre comment DC et crossfilter traitent de grands ensembles de données. http://dc-js.github.io/dc.js/
L'exemple sur leur site principal fonctionne très bien et après avoir vu timelines-> mémoire (dans la console), il va à un maximum de 34 mb et réduit lentement avec le temps
Mon projet prend de la mémoire dans la gamme de 300-500mb par sélection de menu déroulant, quand il charge un fichier JSON et rend la visualisation entière
Alors, 2 questions
- Quel est le back-end pour l'exemple du site en courant continu? Est-il possible de trouver le fichier backend exact?
- Comment puis-je réduire la surcharge de données sur ma RAM à partir de mon application, qui fonctionne très lentement et finit par se bloquer?
Pouvez-vous partager un exemple? Vous parlez d'une assez grande quantité de données, mais ce n'est pas nécessairement hors de portée de ce qui est gérable. –