Je rencontre des problèmes lors de la lecture des données d'un compartiment hébergé par Google. J'ai un seau contenant ~ 1000 fichiers dont j'ai besoin d'accéder, tenue à (par exemple) gs: // mon-seau/donnéesLire les données d'un compartiment dans Google ml-engine (tensorflow)
Utilisation gsutil de la ligne de commande ou l'autre des clients de l'API Python de Google Je peux accéder à les données dans le compartiment, cependant l'importation de ces API n'est pas supportée par défaut sur google-cloud-ml-engine.
J'ai besoin d'un moyen d'accéder à la fois aux données et aux noms des fichiers, soit avec une bibliothèque python par défaut (c'est-à-dire os), soit en utilisant tensorflow. Je sais que tensorflow cette fonctionnalité est intégrée dans quelque part, il a été difficile pour moi de trouver
Idéalement, je suis à la recherche pour le remplacement d'une commande comme os.listdir() et un autre pour ouvrir()
train_data = [read_training_data(filename) for filename in os.listdir('gs://my-bucket/data/')]
Où read_training_data utilise un objet lecteur tensorflow
Merci pour toute aide! (Aussi p.s. mes données sont binaires)
Voici un exemple concret comment écrire un fichier (il est facile de le modifier pour la lecture mais notez que le paramètre 'model' est obligatoire): https://stackoverflow.com/a/43242029/288875 –