J'essaye d'exécuter quelques modèles de régression sur le GPU. Alors que j'obtiens une très faible utilisation du GPU jusqu'à 20%. Après avoir passé le code,Lire la matrice numpy par lots dans Tensorflow
for i in range(epochs):
rand_index = np.random.choice(args.train_pr,
size=args.batch_size)
rand_x = X_train[rand_index]
rand_y = Y_train[rand_index]
J'utilise ces trois lignes pour sélectionner un lot aléatoire pour chaque itération. Donc, je voulais demander quand la formation est en cours, puis-je préparer un autre lot pour la prochaine itération?
Je travaille sur un problème de régression et non sur un problème de classification. J'ai déjà vu le filetage dans Tensorflow mais j'ai trouvé les exemples uniquement pour les images et il n'y a pas d'exemple pour une grosse matrice de taille 100000X1000 qui est utilisée pour l'entrainement.
Son un duplicata à la question: https://stackoverflow.com/questions/45110098/tensorflow-next-batch-function-of-np-array/45110647#45110647 –