2017-08-06 4 views
0

Avant cette api, je prépare toujours ensemble de données en plusieurs étapes suivant le tutoriel officiel:
1.write échantillons fichier tfrecord
2.read dehors avec un lecteur sous forme de chaîne
3.decode la chaîne à tenseurs
4.batchquel est le but nouvellement ajouté api `tf.contrib.data`

Alors, quel est le but d'introduire cette nouvelle api? Quelle est la différence entre le pipeline d'entrée basé sur la file d'attente? Lequel devrais-je choisir? Je suis aussi un utilisateur de pytorch, pytorch a un dataset api, est-ce une "copie" de pytorch?

Répondre

0

Il s'agit d'une approche plus récente conçue pour répondre à certaines des lacunes de l'approche basée sur les files d'attente. Vous pouvez voir la discussion motivante here

Guide de développeur pour l'utilisation de l'API DataSet est here