2012-10-05 2 views
2

J'ai donc utilisé l'outil d'installation et de gestion de Cloudera pour mettre en service un cluster de serveurs à 3 nœuds.Hadoop HDFS - Ne peut pas accorder l'autorisation + x aux fichiers

J'ai HDFS en cours d'exécution et peut voir/créer des répertoires etc.

je suis allé de l'avant et installé le plugin fusible qui me permet de monter le HDFS comme un système de fichiers. Tout fonctionne bien. Je peux écrire des fichiers dans les dossiers etc.

Problème:

quand je lance 'chmod 777 ./file.sh' dans le lecteur monté, il ne marche pas donner des erreurs, mais quand je fais un 'ls -l' il a seulement:

'-rw-rw-rw- 1 root nobody 26 Oct 5 08:57 run.sh' 

Quand je cours 'sudo -u hdfs hadoop fs -chmod 777 /run.sh' il a toujours les mêmes permissions. Peu importe ce que je fais, je ne peux obtenir l'autorisation d'exécution sur aucun fichier.

J'ai désactivé les permissions dans le gestionnaire de Cloudera, et j'ai aussi chowné le dossier (chmod -R 777 le dossier aussi). Mais rien ne semble fonctionner.

Des idées?

Répondre

0

On dirait d'ajouter: "umask = 000" à la ligne de montage fstab a fait l'affaire. (a également ajouté exec pour une bonne mesure)

Merci!

Questions connexes