Je tente d'exécuter plusieurs robots d'exploration comme indiqué dans le docs. Le script s'exécute en appelant le scrapy crawl crawler
.Exécuter Scrapy à partir du script: Erreur module introuvable - nomprojet.items n'est pas un package
maintenant en appelant via python crawler.py
je reçois l'erreur suivante:
from crawler.items import LinkItem
ModuleNotFoundError: No module named 'crawler.items'; 'crawler' is not a package
import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor
from scrapy.crawler import CrawlerProcess
from crawler.items import LinkItem
from crawler.settings import DB_CREDS
Est-ce que quelqu'un sait comment gérer cela?
Mon projet s'appelle un robot. Cela pourraît-il poser problème?
Hiérarchie:
Crawler
|-crawler
| |-__pycache__
| | |-...
| |-spiders
| | |-__pycache__
| | |-__init__.py
| | |-crawler.py
| |-__init__.py
| |-items.py
| |-middlewares.py
| |-pipelines.py
| |-settings.py
|-scrapy.cfg
dans votre dossier spiders, tapez pwd, et tapez ls où vous placez des objets et faites-moi savoir le résultat – parik
@parik Je suis désolé mais je ne comprends pas. Que voulez-vous que je fasse? – phenixclaw
je veux savoir la hiérarchie de votre projet, vous devriez avoir votre fichier items.py dans le dossier de crawler – parik