J'écris une application web en utilisant python avec web.py, et je veux implémenter mon propre système de journalisation. Je voudrais enregistrer des informations détaillées sur chaque requête qui vient à python (les fichiers statiques sont gérés par les serveurs web). Actuellement, je pense à l'écriture des journaux dans un tuyau. De l'autre côté, il devrait y avoir cronolog.Python web app se connectant à travers le tuyau? (performance concernée)
Ma principale préoccupation est que la performance sera-t-elle bonne? Comment le temps et les ressources sont-ils utilisés pour canaliser les journaux par rapport au traitement normal d'une requête (moins de 5 requêtes de base de données et génération de page à partir de modèles)?
Ou y a-t-il d'autres meilleures approches? Je ne veux pas écrire le fichier journal en python car des dizaines de processus seront démarrés par fastcgi.
Avez-vous l'intention d'écrire un type de 'PipeHandler' similaire aux Handlers décrits dans http://docs.python.org/library/logging.html#useful-handlers? –
Je viens de décider qu'il n'y aura qu'un seul processus engendré par fastcgi. Et flup va ajouter des fonctionnalités de multithreading à web.py La journalisation python est déjà thread thread et la situation est plus simple :) Merci. – qingbo