J'ai reçu ce message à l'aide Keras pour former un RNN pour le modèle de langage avec un grand tenseur 3D (généré à partir d'un texte, un encodée chaud et résulte une forme de (165717, 25, 7631)):"g ++ non détecté" alors que le jeu de données augmente, y a-t-il une limite à la taille de la matrice dans GPU?
WARNING (theano.configdefaults): g++ not detected ! Theano will be unable to
execute optimized C-implementations (for both CPU and GPU) and will default to
Python implementations. Performance will be severely degraded. To remove this
warning, set Theano flags cxx to an empty string.
ERROR (theano.sandbox.cuda): nvcc compiler not found on $PATH. Check your nvcc
installation and try again.
Mais tout va bien alors que je limite la taille de l'ensemble de données en petit. Je me demande donc si Theano ou CUDA limitent la taille de la matrice? En outre, est-ce que j'ai une meilleure manière de faire une représentation chaude? Je veux dire, dans le grand tenseur 3D, la plupart des éléments sont 0 en raison de la représentation à un seul point chaud. Cependant, je n'ai pas trouvé de couche qui accepte la représentation d'index des mots.
Cela ressemble à un message d'erreur assez clair pour moi et cela n'a rien à voir avec CUDA. Votre configuration de theano n'est pas correcte et il ne peut pas trouver les compilateurs hôte ou GPU. Fixez-le et le problème disparaîtra – talonmies
@talonmies Je ne me suis pas fait comprendre. Mon code fonctionne assez bien avec un petit ensemble de données (juste pour déboguer mon code), une telle erreur se produit uniquement avec un grand ensemble de données. – nanoix9
Oui, mais le message d'erreur vous indique également pourquoi cela se produit également. Pour les petites tailles, des implémentations Python pures sont utilisées car il n'y a aucun avantage de performance à essayer d'utiliser le GPU – talonmies