程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了Running Scrapy spiders in a Celery task大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决Running Scrapy spiders in a Celery task?

开发过程中遇到Running Scrapy spiders in a Celery task的问题如何解决?下面主要结合日常开发的经验,给出你关于Running Scrapy spiders in a Celery task的解决方法建议,希望对你解决Running Scrapy spiders in a Celery task有所启发或帮助;

好的,这就是我如何使Scrapy与我的Django项目一起工作的,该项目使用Celery来排队要爬网的内容。实际的解决方法主要来自位于http://snippets.scrapy.org/snippets/13/的 joehillen的代码。

首先tasks.py文件

from celery import task

@task()
def crawl_domain(domain_pk):
    from crawl import domain_crawl
    return domain_crawl(domain_pk)

然后crawl.py文件

from multiprocessing import Process
from scrapy.crawler import CrawlerProcess
from scrapy.conf import setTings
from spIDer import DomainSpIDer
from models import Domain

class DomainCrawlerScript():

    def __init__(self):
        self.crawler = CrawlerProcess(setTings)
        self.crawler.install()
        self.crawler.configure()

    def _crawl(self, domain_pk):
        domain = Domain.objects.get(
            pk = domain_pk,
        )
        urls = []
        for page in domain.pages.all():
            urls.append(page.url())
        self.crawler.crawl(DomainSpIDer(urls))
        self.crawler.start()
        self.crawler.stop()

    def crawl(self, domain_pk):
        p = Process(target=self._crawl, args=[domain_pk])
        p.start()
        p.join()

crawler = DomainCrawlerScript()

def domain_crawl(domain_pk):
    crawler.crawl(domain_pk)

这里的窍门是“来自多处理导入过程”,它解决了Twisted框架中的“ ReactorNotRestartable”问题。因此,基本上Celery任务调用了“ domain_crawl”函数,该函数反复使用“ DomainCrawlerScript”对象来与Scrapy蜘蛛进行交互。(我知道我的示例有点多余,但是我这样做是出于我使用多个版本的python的原因[我的django Web服务器实际上正在使用python2.4,而我的工作服务器使用python2.7])

在我的示例中,“ DomainSpIDer”只是一个经过修改的Scrapy SpIDer,它接收URL列表,然后将其设置为“ start_urls”。

解决方法

我有一个Django站点,当用户请求时会发生刮擦,并且我的代码在新过程中启动了Scrapy Spider独立脚本。自然,这与增加用户无关。

像这样:

class StandAlonespider(Spider):
    #a regular spider

setTings.overrides['LOG_ENABLED'] = True
#more setTings can be changed...

crawler = CrawlerProcess( setTings )
crawler.install()
crawler.configure()

spider = StandAlonespider()

crawler.crawl( spider )
crawler.start()

我决定使用Celery并使用worker来对爬网请求进行排队。

但是,我遇到了无法重新启动tornado反应堆的问题。第一个蜘蛛和第二个蜘蛛成功运行,但随后的蜘蛛将引发ReactorNotRestartable错误。

任何人都可以在Celery框架中与运行Spiders分享任何技巧?

大佬总结

以上是大佬教程为你收集整理的Running Scrapy spiders in a Celery task全部内容,希望文章能够帮你解决Running Scrapy spiders in a Celery task所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。