re # 2: Google a un bot de robot RSS spécial appelé FeedFetcher. Lorsque vous demandez le flux RSS, il est distribué pour le récupérer et le stocke dans son cache global (utilisateur), identifié par une URL. La prochaine fois que le flux est demandé (même par un utilisateur différent - tant que l'URL correspond), il est chargé à partir du cache.
Je ne suis pas sûr de ce que les mécanismes d'invalidation du cache sont, mais le robot ne revient certainement pas les aliments strictement aussi souvent que les mécanismes Cache-Control
de la réponse indiqueraient (ce qui est probablement une bonne chose, autant généré des flux RSS envoyer no-cache
bien qu'ils ne changent pas trop souvent). Cependant, ce cache interne ne semble pas durer plus de quelques heures.
(ce sont les hypothèses que j'ai formulées il y a quelque temps de mon flux RSS des journaux d'accès, je pense toujours qu'ils sont valables, comme je l'ai vu aucun changement majeur dans le comportement du robot depuis)
par « projet de collège », je pense que l'idée était pour vous de réfléchir à cela et mettre en œuvre une conception de votre propre marque, ne pas copier des systèmes existants. –
était le projet pour faire déjà stackoverflow? –
@Richard Neil Ilagan: Il est difficile de trouver une idée vraiment originale qui a du sens; OTOH, en réinventant une roue assez complexe, vous apprendra * beaucoup *. Un lecteur de flux est un système assez complexe, même s'il n'apparaît pas de cette façon en surface. – Piskvor