Je suis en train de coder une seule image générée sur un PC vers H.264, en l'envoyant sur le réseau à l'iPad et je veux la décoder. Le cycle du côté iPad sera:Décodage des images uniques encodées en H.264 sur iOS
- Grab cadre du réseau
- décodent.
- L'afficher.
Cependant, je ne peux pas trouver une API qui donné un seul tampon d'une trame codée, je peux décoder à l'image originale. Je veux profiter du décodage matériel sur l'iPad. Mon plan de dernier recours est de créer un fichier mappé en mémoire, d'écrire cette image unique dans ce fichier et d'utiliser ce fichier en tant qu'entrée dans MPMoviePlayerController. C'est une solution vraiment hacky.
Est-ce que quelqu'un pourrait suggérer comment je peux prendre un tampon codé en mémoire et le décoder en utilisant du matériel dans un autre tampon en mémoire?
Merci
Merci pour votre commentaire. J'utilise pour l'instant des i-frames qui n'utilisent pas d'informations sur l'image précédente. Je voulais profiter du décodage matériel. – Cthutu
Si vous êtes sûr de cela, je pense que la classe AVAssetReader est ce que vous voulez. Bonne chance. – Mark
C'est la première étape d'un flux vidéo en temps réel et en temps réel, je veux dire en temps réel REAL, pas HTTP Live Streaming. J'ai un fichier .264 image unique étant envoyé sur le réseau et j'ai besoin de le décoder. Et la chance est définitivement ce dont j'ai besoin :) – Cthutu