博客
关于我
scrapy爬虫框架使用介绍建议收藏
阅读量:792 次
发布时间:2019-03-25

本文共 1787 字,大约阅读时间需要 5 分钟。

Scrapy框架简明介绍

Scrapy是Python中最广泛使用的网页抓取框架之一,因其高效性和可扩展性而备受推崇。本文将详细介绍Scrapy的核心组件、中间件及其工作流程,并提供具体的使用命令和项目目录结构指导。

Scrapy框架的核心组件

Scrapy的框架主要由以下五大核心组件构成,形成了其高效的爬虫流程:

  • 引擎(Engine):整个框架的核心,负责协调各个组件的工作流程。
  • 爬虫程序(Spider):负责从网页中提取有用数据。
  • 调度器(Scheduler):维护待抓取的URL队列。
  • 下载器(Downloader):负责获取网页响应。
  • 管道文件(Pipeline):用于对抓取到的数据进行后续处理,如存储到数据库。
  • 中间件(Middlewares)

    Scrapy提供了强大的中间件系统,用于自定义爬虫行为。主要包括:

  • 下载器中间件:用于处理请求,如添加随机代理或过滤非必要请求。
  • 爬虫中间件:可修改响应对象属性,或在爬虫程序中添加额外逻辑。
  • Scrapy的工作流程

    以下是Scrapy执行一次爬虫任务的典型流程:

  • 初始启动:引擎向爬虫程序索要第一批URL,进入调度器队列。
  • 调度器处理:URL出队后,通过下载器中间件交给下载器进行爬取。
  • 下载响应:下载完成后,通过爬虫中间件交给爬虫程序处理。
  • 数据提取:爬虫程序提取数据并交给管道文件存储。同时,根据需要,将新的URL再次进入调度器队列,继续循环。
  • Scrapy使用命令

    开始使用Scrapy前,需熟悉以下基本命令:

  • 新建项目:在终端中输入 scrapy startproject 项目名,接着进入项目目录。
  • 新建爬虫文件:进入项目目录后,使用命令 scrapy genspider 爬虫名 域名,需注意:
    • 域名应去除协议、路径及查询字符串仅保留主域名。
  • 项目目录结构

    Scrapy项目创建后,默认目录结构为:

    项目名/├── items.py          # 定义爬取数据结构├── middlewares.py   # 中间件定义├── pipelines.py      # 数据处理管道├── settings.py       # 全局配置文件└── scrapy.cfg        # 项目配置文件

    创建爬虫项目

    在终端中输入以下命令可创建一个新的Scrapy项目并生成初始爬虫文件:

    scrapy startproject myprojectcd myprojectscrapy genspider myspider www.target.com

    爬虫文件详解

    生成爬虫文件后,默认存放在 spiders/ 目录下。以下是爬虫文件的基本结构:

    class MaoyanSpider(Spider):    name = 'maoyan'    allowed_domains = ['www.target.com']    start_urls = [        'http://www.target.com/'    ]

    其中:

    • name 为爬虫名,默认与文件名相同。
    • allowed_domains 列表中指定允许抓取的域名。
    • start_urls 列表中存储第一批要抓取的URL。

    全局配置文件(settings.py)

    settings.py 文件包含Scrapy框架的全局配置,常见配置项包括:

  • BOT_NAME:项目名字,默认自动生成。
  • 蜘蛛模块路径:指定爬虫模块路径。
  • 遵循robots协议:设置 ROBOTSTXT_OBEY = False
  • 并发请求数CONCURRENT_REQUESTS,建议根据网速调整。
  • 下载延迟:避免过频ал访问,设置 DOWNLOAD_DELAY
  • 运行爬虫项目

    在终端中运行爬虫项目,可使用以下方法:

  • 直接输入命令:scrapy crawl 爬虫名
  • 使用PyCharm创建脚本:
    • 新建 run.py 文件:
    from scrapy import cmdlinecmdline.execute('scrapy crawl maoyan'.split())
    • 保存并运行该脚本即可。
  • 通过以上步骤,您可以高效地使用Scrapy框架进行网页抓取任务。next,这份介绍为完善,后续将持续更新相关案例和使用细节,帮助您更好地掌握Scrapy框架。

    转载地址:http://fqpuk.baihongyu.com/

    你可能感兴趣的文章
    Network Sniffer and Connection Analyzer
    查看>>
    Network 灰鸽宝典【目录】
    查看>>
    Networkx写入Shape文件
    查看>>
    NetworkX系列教程(11)-graph和其他数据格式转换
    查看>>
    Networkx读取军械调查-ITN综合传输网络?/读取GML文件
    查看>>
    network小学习
    查看>>
    Netwox网络工具使用详解
    查看>>
    Net与Flex入门
    查看>>
    net包之IPConn
    查看>>
    Net操作配置文件(Web.config|App.config)通用类
    查看>>
    Neutron系列 : Neutron OVS OpenFlow 流表 和 L2 Population(7)
    查看>>
    New Relic——手机应用app开发达人的福利立即就到啦!
    查看>>
    NFinal学习笔记 02—NFinalBuild
    查看>>
    NFS
    查看>>
    NFS Server及Client配置与挂载详解
    查看>>
    NFS共享文件系统搭建
    查看>>
    nfs复习
    查看>>
    NFS安装配置
    查看>>
    NFS的安装以及windows/linux挂载linux网络文件系统NFS
    查看>>
    NFS的常用挂载参数
    查看>>