2013-08-31 1 views
0

Je crée un site Web de podcast et je me demandais quelle serait la meilleure façon de maintenir une base de données à jour dans les 15 minutes avec les flux RSS du podcast.Meilleur modèle pour le traitement des flux rss

Actuellement, j'analyse un flux sur demande et le stocke dans redis cache pendant 15 minutes. Mais je préférerais garder une base de données avec toutes les données (flux et tous les épisodes).

Serait-il préférable de faire cuire les données en frappant constamment tous les flux toutes les 15 minutes sur un serveur de traitement ou de traiter les flux sur demande?

Si je devais mettre à jour flux rss sur demande je dois:

base de données check -> vérifier si 15 minutes vieux -> || fait analyser le flux -> vérifier les nouveaux flux -> done || ajouter à la base de données -> done

où done = envoyer les données à l'utilisateur.

Des pensées?

Répondre

0

C'est une façon de le faire. Il existe des protocoles comme PubSubHubbub qui peuvent vous aider à éviter d'interroger "dumbly" toutes les 15 minutes ... Vous pouvez également utiliser Superfeedr et juste attendre que nous pour vous envoyer les données que nous trouvons dans les trouvailles.

+0

Chaque podcast doit-il être publié via superfeedr? J'ai besoin d'une méthode qui fonctionnera pour tous les flux RSS. – Kettle1

+0

Non, bien sûr que non, mais nous ferons le sondage/extraction pour tous les autres flux en votre nom :) Nous faisons cela à l'échelle depuis 2009 –

+0

Cool, sonne bien pour moi tant qu'il ne devient pas trop cher avec environ 5000+ flux de podcast. Je vais l'essayer. – Kettle1