Situation: J'ai besoin d'extraire de grandes quantités de données de la base de données (~ 150k +). Puis, en utilisant PHP, je divise ces données en fonction d'un chiffre quotidien et je le compte (1er: ~ 10k, 2ème: ~ 15k, etc ...), puis incrémenter une autre valeur à partir des chiffres quotidiens. Et après cela, j'ai besoin de formater toutes ces informations dans un tableau JSON et revenir au client et afficher un graphique sur ces statistiques. Maintenant, je suis sûr que tout cela peut être bien géré par PHP mais cela créerait probablement beaucoup de charge sur le serveur + la bande passante, et surtout si le client continue d'actualiser la page pour voir les statistiques mises à jour. Ils sont également environ ~ 5k + utilisateurs quotidiens, donc leur sera beaucoup de données récupérées.Gérer des ensembles de données volumineux de MySQL vers PHP, puis vers un client dans JSON
Quelle serait la meilleure façon de gérer cela?
Remarque: Le serveur dispose d'une RAM DD3 de 4 Go.
Merci pour la réponse. Toutes les données sont uniques à chaque utilisateur, car elles ne concernent que leur compte. Je pense juste à mettre en cache les informations produites par PHP dans une table InnoDB distincte, puis à vider toutes les données toutes les 10 minutes et à les reproduire lorsque l'utilisateur réapparaît sur la page. – kashn