Im en cours d'exécution d'un agrégateur de lien vidéo, et j'ai un script qui vérifie si la vidéo a été supprimée du site. C'est fait en obtenant la sortie HTML du lien, et en vérifiant par rapport aux mots-clés cibles.CURL est-il cher comparé à file_get_contents()?
Actuellement j'utilise file_get_contents() pour obtenir le code html du lien. Le problème est que certains sites redirigent vers une autre URL si le lien est supprimé. L'utilisation de curl résout le problème ... mais va-t-il utiliser davantage de ressources serveur? Je lance le script checker toutes les 10 minutes, et il vérifie 1000 liens (il y a 300 000 liens dans la DB).
Le code que je veux utiliser est la suivante:
$Curl_Session = curl_init('http://www.domain.com');
curl_setopt ($Curl_Session, CURLOPT_FOLLOWLOCATION, 1);
curl_setopt ($Curl_Session, CURLOPT_RETURNTRANSFER, 1);
$output = curl_exec ($Curl_Session);
curl_close ($Curl_Session);
Pourquoi ne le comparez-vous pas? – derobert