En tant que SEO, je ressens votre douleur. Pardonnez-moi si je me trompe, mais je suppose que le problème est dû au fait qu'il existe un fichier robots.txt sur votre serveur de transfert, car vous devez bloquer l'ensemble de l'environnement intermédiaire des moteurs de recherche pour le trouver et l'explorer. .
Si tel est le cas, je suggère que votre environnement de transfert soit placé en interne là où ce n'est pas un problème. (Configuration de type Intranet ou réseau pour la mise en scène). Cela peut sauver beaucoup de problèmes de moteur de recherche avec ce contenu se faire crawlé dire, par exemple, ils ont supprimé ce fichier robots.txt de votre Staging par accident et obtenir un site en double crawlé et indexé.
Si ce n'est pas une option, recommandez que la mise en scène soit placée dans un dossier sur le serveur comme domain.com/staging/ et n'utilisez qu'un seul fichier robots.txt dans le dossier racine pour bloquer le dossier/staging/entièrement. De cette façon, vous n'avez pas besoin d'utiliser deux fichiers et vous pouvez dormir la nuit sachant qu'un autre fichier robots.txt ne remplacera pas le vôtre.
Si ce n'est pas une option, demandez-leur de l'ajouter à leur liste de contrôle pour ne pas déplacer ce fichier? Vous aurez juste à vérifier cela - Un peu moins de sommeil, mais un peu plus de précaution.
Juste une supposition, mais peut-être sa façon la plus simple d'exposer leur travail à des clients externes? –