Je crée une application pour surveiller la qualité de l'eau. Les données de température sont mises à jour toutes les 2 min vers la base de données en temps réel Firebase. App a deux exigencesformule/algorithme approprié pour détecter les fluctuations de température
1) Il doit alerter l'utilisateur lorsque la température dépasse 33 degrés ou descendre en dessous de 23 degrés - Cette partie est fait
2) Il doit alerter l'utilisateur quand il a une grande fluctuation de température après l'analyse des données toutes les 30min - Cette partie je suis confus.
Je ne sais pas quel algorithme utiliser pour détecter de grandes fluctuations de température sur une période de temps et alerter l'utilisateur. Quelqu'un peut-il m'aider à ce sujet?
Merci beaucoup mon pote. Je pense que c'est exactement ce que je voulais. Y a-t-il un nom de mathématique pour la méthode ci-dessus? Il serait utile d'inclure cela dans ma documentation de projet. –
Une question de suivi, Si l'analyse de 30 min n'est pas une exigence n'est-il pas plus précis de mesurer une fluctuation énorme basée sur des données précédentes lorsque de nouvelles données arrivent, car l'utilisation de la méthode ci-dessus peut ne pas être exacte ?, 22,30,28, 26,29,27,25,24. Selon votre méthode, l'énorme fluctuation de 22 à 30 ne sera pas détectée. Ne pensez-vous pas que l'analyse des fluctuations de 30 minutes ne fonctionne pas? –
Cette méthode est appelée méthode de détection adaptative. Je pense que l'analyse de 30 minutes devrait fonctionner aussi. La différence calculée indique à quel point la valeur s'écarte de la moyenne. Vous pouvez définir un certain seuil pour votre expérience de 30 min que si les résultats de différence dévie un écart std/deux écart type, alors cela indique une fluctuation. Vous pouvez essayer de calculer pour l'ensemble de données que vous avez fourni et voir si vos valeurs de différence sont supérieures à l'écart-type. – Darpan