Je voudrais explorer un ensemble de sites Web aléatoires reçus d'un générateur d'URL, en utilisant ChromeDriver de Selenium avec Crawljax pour effectuer une analyse de code statique sur les états DOM capturés.L'utilisation de Selenium WebDriver pour l'exploration Web automatisée peut-elle être dangereuse?
Est-ce dangereux pour la machine qui effectue l'exploration? Mon inquiétude est que l'un des sites générés aléatoirement est malveillant et que l'exécution de JavaScript à partir de ChromeDriver (qui est utilisé pour capturer les nouveaux états DOM) infecte la machine exécutant le test d'une manière ou d'une autre. Devrais-je utiliser ceci dans un environnement en bac à sable?
--edit--
S'il importe, le robot est mis en œuvre entièrement en Java.
Chrome fonctionne tout dans un environnement sandbox. Si vous n'installez aucun add-ons de chrome, je ne vois pas cela comme un gros problème. Toutefois, de nombreux sites utilisent un outil de suivi et le système de suivi peut suivre les sites communs que vous avez parcourus. Vous pouvez donc créer un profil individuel pour chaque domaine. Mais comme vous ne faites que ramper et ne pas stocker de cookies privés, réutiliser la même instance pour différents domaines ne devrait pas poser de problème. –
Merci beaucoup @TarunLalwani, il semble que votre commentaire devrait être une réponse. –