2009-11-23 3 views
-1

Je suis en train d'essayer de récupérer seulement l'achèvement de recherche montré dans les résultats de recherche Google pour un mot clé. Par exemple, l'achèvement de la recherche pourscript php simple pour récupérer google mot-clé de recherche achèvement

http://www.google.com/#hl=en&q=google+keyword+search

est 48,400,000 (Résultats 1 - 10 d'environ 48.400.000 pour la recherche de mots clés google)

J'essayé d'utiliser CURL mais ne parviennent pas à récupérer la page de résultats de recherche.

Toute aide appréciée.

+0

Je suis sûr que c'est interdit. – powtac

Répondre

8

Vous n'avez pas besoin de faire quelque chose d'aussi compliqué.

utilisent simplement leur recherche API

$search = 'google keyword search'; 
$results = json_decode(file_get_contents('http://ajax.googleapis.com/ajax/services/search/web?v=1.0&q=' . urlencode($search))); 

echo $results->responseData->cursor->estimatedResultCount; 
+0

Ok - Je vais mordre. Cette réponse est près d'un an et soudainement un vote vers le bas? L'API a-t-elle changé et cette réponse est périmée? Aidez-moi ici vous downvoter la personne vous. –

+1

3 ans après, travaillant comme un charme, passez une demi-journée hier à la recherche d'une solution et celui-ci a été le gagnant. – Yaroslav

+0

L'API Google Web Search n'est plus disponible. Veuillez migrer vers l'API de recherche personnalisée Google (https://developers.google.com/custom-search/) – Collins

-2

Tout d'abord, le lien vous inscrire est incorrect, qui va juste obtenir google.com, parce que la valeur de hachage ne fait jamais partie de l'URI demande. Deuxièmement, Google empêche les robots d'accès d'accéder à n'importe quoi depuis /search avec robots.txt. Si CURL fait attention à cela ou non, je ne sais pas. Cependant, il est très probable que Google bloque l'accès à partir de sources inconnues. Je suppose que vous pourriez essayer de configurer l'user-agent pour qu'il corresponde à un navigateur web, bien que ce soit une sorte de tromperie ...

+0

Le lien fonctionne. En outre, curl ne fait pas attention à robots.txt, c'est laissé à la discrétion du client. Un utilisateur-agent valide n'est pas obligé de faire une demande, bien que l'un d'entre eux empêchera probablement votre IP d'être banni un peu plus longtemps. –

Questions connexes