La situation est la suivante:fichiers texte Process ftp'ed dans un ensemble de répertoires dans un serveur hébergé
Une série de postes de travail à distance de recueillir des données sur le terrain et ftp les données recueillies sur le terrain à un serveur via ftp. Les données sont envoyées sous la forme d'un fichier CSV stocké dans un répertoire unique pour chaque poste de travail du serveur FTP. Chaque poste de travail envoie une nouvelle mise à jour toutes les 10 minutes, ce qui provoque l'écrasement des données précédentes. Nous aimerions en quelque sorte concaténer ou stocker ces données automatiquement. Le traitement du poste de travail est limité et ne peut pas être étendu car il s'agit d'un système intégré.
Une suggestion proposée consistait à exécuter un cronjob sur le serveur FTP, mais il existe une restriction sur les Conditions d'utilisation pour autoriser uniquement les cronjobs à intervalles de 30 minutes, car il s'agit d'un hébergement partagé. Compte tenu du nombre de postes de travail téléchargés et de l'intervalle de 10 minutes entre les envois, il semble que la limite de 30 minutes entre les appels du cronjob puisse poser problème.
Y a-t-il une autre approche qui pourrait être suggérée? Les langages de script côté serveur disponibles sont perl, php et python.
La mise à niveau vers un serveur dédié peut être nécessaire, mais j'aimerais quand même obtenir des informations sur la façon de résoudre ce problème de la manière la plus élégante.