Je dois archiver les pages complètes, y compris les images liées, etc. sur mon serveur Linux. Vous cherchez la meilleure solution. Existe-t-il un moyen de sauvegarder tous les éléments, puis de les relier tous pour qu'ils fonctionnent dans le même répertoire?Quelle est la meilleure façon d'enregistrer une page Web complète sur un serveur Linux?
J'ai pensé utiliser curl, mais je ne suis pas sûr de la façon de faire tout cela. Aussi, aurai-je besoin de PHP-DOM?
Existe-t-il un moyen d'utiliser firefox sur le serveur et de copier les fichiers temporaires après que l'adresse a été chargée ou similaire?
Toutes les entrées sont les bienvenues.
Edit:
Il semble que wget est « non » va travailler les fichiers doivent être rendus. J'ai firefox installé sur le serveur, y a-t-il un moyen de charger l'url dans firefox puis de récupérer les fichiers temporaires et effacer les fichiers temporaires après?
Tout le contenu est-il statique ou y a-t-il du contenu dynamique (PHP, JSP, etc.)? – thkala
Cela fait partie d'une application Web client, donc il pourrait y avoir n'importe quoi. Il serait préférable d'utiliser javascript ou java ou similaire pour envoyer l'état actuel du navigateur au serveur, puis faire quoi d'autre est nécessaire. – Tomas
Il existe d'autres alternatives dans [obtenir un navigateur de rendu html + javascript] (https://stackoverflow.com/q/18720218) –