2017-01-30 3 views
0

Je travaille sur un shader de calcul. Il doit sortir certaines textures en tant que drones. Certains d'entre eux ont des composants 8 bits et certains ont 16 bits par canal. Considérez cette ligne:Existe-t-il une prise en charge de 8 bits par canal et de 16 bits par canal UAV dans un shader de calcul?

RWTexture2D<float4> _watNormTex; 

Je lie une texture R8G8B8A8_UNORM à elle et la sortie est noir, mais quand je lie une texture R32G32B32A32_FLOAT il enregistre les valeurs correctes. Il semble donc qu'il y a un problème avec le format de texture.

Que puis-je faire pour produire des textures 8 bits ou 16 bits par canal? Mon appareil de test a un GPU G eforce 710 GT.

+1

Avez-vous activé la couche de débogage? Il devrait vous fournir des informations au cas où quelque chose ne va pas, sans poster de code, il sera difficile de trouver l'erreur (en note, j'ai essayé votre cas et cela a fonctionné avec les deux formats, donc je pense que quelque chose ne va pas configuration de pipeline). – catflier

+0

@catflier Vous avez absolument raison. C'était un problème d'installation de cadre. Merci –

Répondre

0

Il s'agissait d'un problème d'installation tel que suggéré par @catflier. Les formats devraient fonctionner comme prévu.