Je suis en train de concevoir une application de visualisation de musique pour l'iPhone. Je pensais faire cela en récupérant des données via le micro de l'iPhone, en y exécutant une Transformée de Fourier et ensuite en créant des visualisations.Créer un iPhone Music Visualiser basé sur la transformation de Fourier
Le meilleur exemple que j'ai pu obtenir est aurioTuch qui produit un graphe parfait basé sur les données FFT. Cependant, j'ai eu du mal à comprendre/reproduire aurioTouch dans mon propre projet.
Je n'arrive pas à comprendre où exactement aurioTouch capte les données du microphone avant de faire la FFT?
Y a-t-il d'autres exemples de code que je pourrais utiliser pour faire cela dans mon projet? Ou d'autres conseils?
Désolé de demander l'évidence, mais avez-vous essayé de suivre le programme étape par étape en mode débogage? Quelles sont les difficultés exactes que vous avez rencontrées? –
Oui J'ai suivi le code du programme. Pourrait juste moi être épais ici, mais je suis incapable de déterminer où exactement il obtient les données du microphone. Un aperçu de cela? – Dave