Je crée un script PHP qui nécessite que le serveur effectue plusieurs requêtes cURL par exécution. Je vais lancer ce script via cron toutes les 3 minutes. Je cherche à maximiser le nombre de demandes de cURL que je peux faire dans une période de 24 heures. Ce que je me demande, c'est si, du point de vue des performances, il serait préférable d'avoir un serveur dédié ou plusieurs petits comptes d'hébergement mutualisés. Avec le problème étant le nombre de connexions externes et non les ressources du système, je me demande quelle est la meilleure approche.performances du serveur: connexions externes multiples et performances
Répondre
Les comptes d'hébergement partagé ont généralement une limite très basse, ce qui complique la tâche. Je ne le recommanderais pas. Il serait BEAUCOUP plus efficace d'investir dans un compte d'hébergement VPS (comme celui avec Linode ou Slicehost). Ils n'ont généralement pas de limite de connexion (ou du moins pas celle que j'ai rencontrée). Ils sont également plus rapides et beaucoup plus rentables que l'hébergement partagé direct. Un serveur dédié serait exagéré.
De plus, puisque vous utilisez PHP, n'hésitez pas à profiter de curl_multi_init
, ce qui vous permettra d'exécuter plusieurs requêtes cURL à la fois.
Espérons que cela aide!
IMPRESSIONNANT - Je vais travailler sur ce demain et mettra cela en place. Je n'ai jamais vu cette fonction auparavant, mais elle a l'air parfaite – websiteguru
- 1. SQLCE - regroupement de connexions et performances?
- 2. Différences de performances énormes entre les connexions
- 3. Comment optimiser les performances du serveur?
- 4. Performances du serveur de développement ASP.Net
- 5. Performances du cluster
- 6. Utilisation et performances de la mémoire virtuelle du serveur SQL
- 7. Performances du proxy d'image
- 8. Performances du lecteur XML
- 9. Multiprocesseur et performances
- 10. Performances d'analyse Javascript et CSS
- 11. Performances du dessin avec CGImageCreateWithJPEGDataProvider?
- 12. Performances Javascript et minification
- 13. Performances du rendu d'image WPF
- 14. Rails routes et les performances du site
- 15. Instructions et performances PRINT
- 16. Variables d'application et performances?
- 17. performances Mysql et Count (*)
- 18. performances du client memcache php
- 19. Problèmes de performances avec les dépendances de données externes
- 20. Comment faire le suivi des performances du serveur IIS
- 21. Meilleure configuration du serveur MySQL pour les performances?
- 22. Performances createScreenCapture du robot Java
- 23. Problème de performances Tomcat
- 24. Performances C# pour serveur proxy (vs C++)
- 25. Mesure des performances d'un serveur Web
- 26. Performances LINQ
- 27. Sharepoint optimisation des performances Web
- 28. Problème de performances médiocre sur le serveur par rapport aux performances locales d'une application?
- 29. Performances XAConnection dans Oracle (10g)
- 30. xquery performances et modèles ressources
Combien de cycles voulez-vous exécuter tous les 3 minutes? Vous avez déjà pensé à ne pas utiliser CURL mais quelque chose de plus efficace? – TomTom
Vous dites que vous faites plusieurs demandes toutes les 3 minutes, ce qui implique un petit nombre de demandes. Vous voulez également maximiser le nombre de demandes, de quoi s'agit-il? Êtes-vous en train d'essayer de télécharger Internet? – Sjoerd
@TomTom - Je n'ai jamais eu de problèmes de performance avec cURL, pouvez-vous suggérer "quelque chose de plus efficace" pour les requêtes HTTP? Si la performance est la clé, je serais plus préoccupé par les performances de PHP que cURL et le développer comme une application native. –