J'essaie d'implémenter un système qui prend en charge le flux de caméra en direct, superpose du texte et des symboles (en utilisant la transparence du canal Alpha); et le transmet sur RTP/UDP, comme une seule vidéo (à partir d'un port). Les systèmes hôte et client ont i.MX6QP activé. Pour l'instant, j'essaie de comprendre le système GStreamer et pipeline avec gst-launch, et seulement en utilisant des modèles de test comme sources vidéo.Diffusion de vidéos superposées sur RTP
Voici un schéma simplifié pour montrer ce que je suis en train de réaliser:
J'ai vu le plugin videomixer, mais d'après ce que je comprends, il est utilisé seulement pour superposant et lecture de vidéos , pas pour créer des flux vidéo "transmissibles". (Je peux l'utiliser avec xvimagesink, mais je n'ai pas réussi à implémenter le pipeline avec udpsink et je n'ai pas trouvé de solution de contournement.)
Je n'ai pas réussi à trouver les bons outils/méthodes pour mettre en œuvre le système décrit ci-dessus. Ai-je raison sur le plugin vidéomixer? Si oui, que me suggérez-vous de faire? Toute aide est appréciée, merci d'avance.
Quelle est la nature de vos vidéos en triangle et cercle: RAW, compressé? (Je suppose que c'est RAW pour l'instant puisque vous utilisez 'videotestsrc') – Ahresse
Vous avez raison, ils sont RAW pour l'instant. – ddyn