2010-08-04 6 views

Répondre

1

Je dois dire, en conclusion, je recommande d'utiliser une interface graphique. Ils ont déjà exposé le travail pour vous.

Ma meilleure recommandation est Bucket Explorer (fonctionne sur tous les systèmes d'exploitation)

jusqu'à deuxième coureur est chicouté (uniquement sur PC)

Bucket Explorer a une douce très facile à comprendre l'interface graphique, et a beaucoup de de grands avantages, l'analytique, et la facilité d'utilisation qui l'emporte sur tous les autres que j'ai expérimentés avec.

1

Si vous utilisez Linux, et vous voulez juste faire glisser des copies vers le système de fichiers local, vous pouvez ensuite utiliser s3sync:

http://www.s3sync.net/wiki

Si vous voulez accéder aux fichiers directement sur s3, vous pourriez monter s3 comme un système de fichiers de fusible localement, mais méfiez-vous que l'accès aux fichiers en utilisant cette méthode dépend de votre connexion, donc il pourrait y avoir des problèmes de vitesse. Je l'ai utilisé s3fs parfaitement pour accéder à des sauvegardes, etc:

(ne peut poster un lien atm, mais Google s3fs - il est hébergé sur googlecode)

Si vous avez juste besoin d'une copie, puis s3sync est l'option la plus facile .

Espérons que cela aide.

+1

Oui, en fait, désolé, je voulais dire comment puis-je dupliquer un dossier sur le s3 de la s3. Donc, si j'ai un dossier nommé production. Et je veux une copie carbone de ces données pour mon serveur de test. Comment est-ce que je duplique cela? J'ai trouvé que CloudBerry fonctionne bien, mais Windows est l'herpès des systèmes d'exploitation, et je préfère trouver une alternative mac. Connaissez-vous quelqu'un? – Trip

+0

Désolé - ne connait pas d'alternative mac. Je suppose que vous pouvez exécuter un cron sur OSX pour synchroniser de 'production' vers un dossier local en utilisant s3sync, puis le pousser dans le compartiment 'testing'. Quelque chose comme ça devrait le faire (en supposant que vous avez mis en place s3sync ok): "s3sync.rb -r productionbucket:/local/dossier" Pour les descendre, puis « s3sync.rb -r/local/folder testingbucket: " Pour mettre à l'essai –

+0

Intéressant. J'ai trouvé CloudBerry pour PC fonctionne, c'est juste terriblement lent. Je suppose que la même chose vaut pour S3FS. J'ai 20 concerts d'images, environ 20 000 images. Ran le processus les trois jours et demi directement, et je ne sais pas si cela a fait une brèche. – Trip

8

Je voulais juste écrire une réponse à jour ici:

Vous pouvez maintenant utiliser la console de gestion AWS d'Amazon (sous l'onglet S3) à un clic droit sur un dossier (ou fichier) dans le seau A, cliquez sur Copier , puis naviguez jusqu'au compartiment B et cliquez avec le bouton droit de la souris puis cliquez sur Coller

Ceci simplifie considérablement la copie du contenu de votre compartiment de production dans votre compartiment de développement.

+0

Je ne recommanderais pas cela, car c'est extrêmement lent. Il vaut mieux utiliser s3cmd (ou une interface graphique). – micapam

+0

Notez que cette réponse ne fonctionnera pas si votre objectif est de dupliquer un dossier dans le même compartiment. L'interface graphique de S3 a une fonctionnalité de copier-coller qui semble fonctionner, mais (curieusement) ne semble pas permettre de renommer l'objet collé. J'ai été capable de faire ce que je voulais dans le client graphique Cyberduck pour macOS. –

Questions connexes