博客
关于我
scrapy爬虫框架使用介绍建议收藏
阅读量:792 次
发布时间:2019-03-25

本文共 1787 字,大约阅读时间需要 5 分钟。

Scrapy框架简明介绍

Scrapy是Python中最广泛使用的网页抓取框架之一,因其高效性和可扩展性而备受推崇。本文将详细介绍Scrapy的核心组件、中间件及其工作流程,并提供具体的使用命令和项目目录结构指导。

Scrapy框架的核心组件

Scrapy的框架主要由以下五大核心组件构成,形成了其高效的爬虫流程:

  • 引擎(Engine):整个框架的核心,负责协调各个组件的工作流程。
  • 爬虫程序(Spider):负责从网页中提取有用数据。
  • 调度器(Scheduler):维护待抓取的URL队列。
  • 下载器(Downloader):负责获取网页响应。
  • 管道文件(Pipeline):用于对抓取到的数据进行后续处理,如存储到数据库。
  • 中间件(Middlewares)

    Scrapy提供了强大的中间件系统,用于自定义爬虫行为。主要包括:

  • 下载器中间件:用于处理请求,如添加随机代理或过滤非必要请求。
  • 爬虫中间件:可修改响应对象属性,或在爬虫程序中添加额外逻辑。
  • Scrapy的工作流程

    以下是Scrapy执行一次爬虫任务的典型流程:

  • 初始启动:引擎向爬虫程序索要第一批URL,进入调度器队列。
  • 调度器处理:URL出队后,通过下载器中间件交给下载器进行爬取。
  • 下载响应:下载完成后,通过爬虫中间件交给爬虫程序处理。
  • 数据提取:爬虫程序提取数据并交给管道文件存储。同时,根据需要,将新的URL再次进入调度器队列,继续循环。
  • Scrapy使用命令

    开始使用Scrapy前,需熟悉以下基本命令:

  • 新建项目:在终端中输入 scrapy startproject 项目名,接着进入项目目录。
  • 新建爬虫文件:进入项目目录后,使用命令 scrapy genspider 爬虫名 域名,需注意:
    • 域名应去除协议、路径及查询字符串仅保留主域名。
  • 项目目录结构

    Scrapy项目创建后,默认目录结构为:

    项目名/├── items.py          # 定义爬取数据结构├── middlewares.py   # 中间件定义├── pipelines.py      # 数据处理管道├── settings.py       # 全局配置文件└── scrapy.cfg        # 项目配置文件

    创建爬虫项目

    在终端中输入以下命令可创建一个新的Scrapy项目并生成初始爬虫文件:

    scrapy startproject myprojectcd myprojectscrapy genspider myspider www.target.com

    爬虫文件详解

    生成爬虫文件后,默认存放在 spiders/ 目录下。以下是爬虫文件的基本结构:

    class MaoyanSpider(Spider):    name = 'maoyan'    allowed_domains = ['www.target.com']    start_urls = [        'http://www.target.com/'    ]

    其中:

    • name 为爬虫名,默认与文件名相同。
    • allowed_domains 列表中指定允许抓取的域名。
    • start_urls 列表中存储第一批要抓取的URL。

    全局配置文件(settings.py)

    settings.py 文件包含Scrapy框架的全局配置,常见配置项包括:

  • BOT_NAME:项目名字,默认自动生成。
  • 蜘蛛模块路径:指定爬虫模块路径。
  • 遵循robots协议:设置 ROBOTSTXT_OBEY = False
  • 并发请求数CONCURRENT_REQUESTS,建议根据网速调整。
  • 下载延迟:避免过频ал访问,设置 DOWNLOAD_DELAY
  • 运行爬虫项目

    在终端中运行爬虫项目,可使用以下方法:

  • 直接输入命令:scrapy crawl 爬虫名
  • 使用PyCharm创建脚本:
    • 新建 run.py 文件:
    from scrapy import cmdlinecmdline.execute('scrapy crawl maoyan'.split())
    • 保存并运行该脚本即可。
  • 通过以上步骤,您可以高效地使用Scrapy框架进行网页抓取任务。next,这份介绍为完善,后续将持续更新相关案例和使用细节,帮助您更好地掌握Scrapy框架。

    转载地址:http://fqpuk.baihongyu.com/

    你可能感兴趣的文章
    Netty工作笔记0061---Netty心跳处理器编写
    查看>>
    Netty工作笔记0063---WebSocket长连接开发2
    查看>>
    Netty工作笔记0065---WebSocket长连接开发4
    查看>>
    Netty工作笔记0066---Netty核心模块内容梳理
    查看>>
    Netty工作笔记0068---Protobuf机制简述
    查看>>
    Netty工作笔记0070---Protobuf使用案例Codec使用
    查看>>
    Netty工作笔记0071---Protobuf传输多种类型
    查看>>
    Netty工作笔记0072---Protobuf内容小结
    查看>>
    Netty工作笔记0073---Neety的出站和入站机制
    查看>>
    Netty工作笔记0074---handler链调用机制实例1
    查看>>
    Netty工作笔记0075---handler链调用机制实例1
    查看>>
    Netty工作笔记0076---handler链调用机制实例3
    查看>>
    Netty工作笔记0077---handler链调用机制实例4
    查看>>
    Netty工作笔记0078---Netty其他常用编解码器
    查看>>
    Netty工作笔记0079---Log4j整合到Netty
    查看>>
    Netty工作笔记0080---编解码器和处理器链梳理
    查看>>
    Netty工作笔记0081---编解码器和处理器链梳理
    查看>>
    Netty工作笔记0082---TCP粘包拆包实例演示
    查看>>
    Netty工作笔记0083---通过自定义协议解决粘包拆包问题1
    查看>>
    Netty工作笔记0084---通过自定义协议解决粘包拆包问题2
    查看>>