J'ai une question très basique concernant Android et ffmpeg. J'ai obtenu ffmpeg de http://bambuser.com/opensource et a pu le compiler pour ARM. Les résultats sont les fichiers binaires (ffmpeg
) ainsi que plusieurs fichiers libsomething.so
.Comment utiliser ffmpeg sur Android?
Ma question est: Est-ce suffisant pour décoder les vidéos? Comment puis-je utiliser ffmpeg alors?
Pour charger la bibliothèque, j'ai:
static {
System.load("/data/data/com.package/lib/libavcodec.so");
}
Il charge très bien. Mais alors? Plus d'explications: J'ai vu d'autres projets où les gens avaient leur source ffmpeg dans un répertoire JNI dans le projet. Ils ont également créé des fichiers Android.mk et du code C avec. Aurais-je besoin de ça aussi? Pourquoi créer d'abord les fichiers .so, puis copier à nouveau le code source ffmpeg?
Je sais que le NDK et comment cela devrait fonctionner mais je ne l'ai jamais vu un exemple de la façon dont on fait appel à des fonctions de ffmpeg utiliser, parce que les gens semblent se cacher leur mise en œuvre (qui est une sorte de compréhensible) mais ne donnant même pas de pointeurs ou d'exemples utiles.
Disons que je voulais décoder un fichier vidéo. Quel genre de méthodes natives aurais-je besoin de mettre en œuvre? Comment puis-je exécuter le projet? Quels types de données doivent être transmis? etc. Il y a certainement quelques personnes ici qui ont au moins fait cela, je le sais en cherchant des heures et des heures.
Comment avez-vous compilé ffmpeg téléchargé à partir du lien http://bambuser.com/opensource –
@Swathi Ce n'était pas trop difficile à faire. Suivez simplement les instructions qui se trouvent dans ce dossier dans le document 'INSTALL'. – slhck
merci pour la réponse rapide :) Je le télécharge, je vais suivre les instructions à l'intérieur. Je travaille sur Windows, a-t-il besoin d'autres configurations? –