博客
关于我
scrapy爬虫框架使用介绍建议收藏
阅读量:792 次
发布时间:2019-03-25

本文共 1800 字,大约阅读时间需要 6 分钟。

Scrapy框架简明介绍

Scrapy是Python中最广泛使用的网页抓取框架之一,因其高效性和可扩展性而备受推崇。本文将详细介绍Scrapy的核心组件、中间件及其工作流程,并提供具体的使用命令和项目目录结构指导。

Scrapy框架的核心组件

Scrapy的框架主要由以下五大核心组件构成,形成了其高效的爬虫流程:

  • 引擎(Engine):整个框架的核心,负责协调各个组件的工作流程。
  • 爬虫程序(Spider):负责从网页中提取有用数据。
  • 调度器(Scheduler):维护待抓取的URL队列。
  • 下载器(Downloader):负责获取网页响应。
  • 管道文件(Pipeline):用于对抓取到的数据进行后续处理,如存储到数据库。
  • 中间件(Middlewares)

    Scrapy提供了强大的中间件系统,用于自定义爬虫行为。主要包括:

  • 下载器中间件:用于处理请求,如添加随机代理或过滤非必要请求。
  • 爬虫中间件:可修改响应对象属性,或在爬虫程序中添加额外逻辑。
  • Scrapy的工作流程

    以下是Scrapy执行一次爬虫任务的典型流程:

  • 初始启动:引擎向爬虫程序索要第一批URL,进入调度器队列。
  • 调度器处理:URL出队后,通过下载器中间件交给下载器进行爬取。
  • 下载响应:下载完成后,通过爬虫中间件交给爬虫程序处理。
  • 数据提取:爬虫程序提取数据并交给管道文件存储。同时,根据需要,将新的URL再次进入调度器队列,继续循环。
  • Scrapy使用命令

    开始使用Scrapy前,需熟悉以下基本命令:

  • 新建项目:在终端中输入 scrapy startproject 项目名,接着进入项目目录。
  • 新建爬虫文件:进入项目目录后,使用命令 scrapy genspider 爬虫名 域名,需注意:
    • 域名应去除协议、路径及查询字符串仅保留主域名。
  • 项目目录结构

    Scrapy项目创建后,默认目录结构为:

    项目名/
    ├── items.py # 定义爬取数据结构
    ├── middlewares.py # 中间件定义
    ├── pipelines.py # 数据处理管道
    ├── settings.py # 全局配置文件
    └── scrapy.cfg # 项目配置文件

    创建爬虫项目

    在终端中输入以下命令可创建一个新的Scrapy项目并生成初始爬虫文件:

    scrapy startproject myproject
    cd myproject
    scrapy genspider myspider www.target.com

    爬虫文件详解

    生成爬虫文件后,默认存放在 spiders/ 目录下。以下是爬虫文件的基本结构:

    class MaoyanSpider(Spider):
    name = 'maoyan'
    allowed_domains = ['www.target.com']
    start_urls = [
    'http://www.target.com/'
    ]

    其中:

    • name 为爬虫名,默认与文件名相同。
    • allowed_domains 列表中指定允许抓取的域名。
    • start_urls 列表中存储第一批要抓取的URL。

    全局配置文件(settings.py)

    settings.py 文件包含Scrapy框架的全局配置,常见配置项包括:

  • BOT_NAME:项目名字,默认自动生成。
  • 蜘蛛模块路径:指定爬虫模块路径。
  • 遵循robots协议:设置 ROBOTSTXT_OBEY = False
  • 并发请求数CONCURRENT_REQUESTS,建议根据网速调整。
  • 下载延迟:避免过频ал访问,设置 DOWNLOAD_DELAY
  • 运行爬虫项目

    在终端中运行爬虫项目,可使用以下方法:

  • 直接输入命令:scrapy crawl 爬虫名
  • 使用PyCharm创建脚本:
    • 新建 run.py 文件:
    from scrapy import cmdline
    cmdline.execute('scrapy crawl maoyan'.split())
    • 保存并运行该脚本即可。
  • 通过以上步骤,您可以高效地使用Scrapy框架进行网页抓取任务。next,这份介绍为完善,后续将持续更新相关案例和使用细节,帮助您更好地掌握Scrapy框架。

    转载地址:http://fqpuk.baihongyu.com/

    你可能感兴趣的文章
    nodejs模块——fs模块
    查看>>
    Nodejs模块、自定义模块、CommonJs的概念和使用
    查看>>
    nodejs生成多层目录和生成文件的通用方法
    查看>>
    nodejs端口被占用原因及解决方案
    查看>>
    Nodejs简介以及Windows上安装Nodejs
    查看>>
    nodejs系列之express
    查看>>
    nodejs系列之Koa2
    查看>>
    Nodejs连接mysql
    查看>>
    nodejs连接mysql
    查看>>
    NodeJs连接Oracle数据库
    查看>>
    nodejs配置express服务器,运行自动打开浏览器
    查看>>
    NodeMCU教程 http请求获取Json中文乱码解决方案
    查看>>
    Nodemon 深入解析与使用
    查看>>
    NodeSession:高效且灵活的Node.js会话管理工具
    查看>>
    node~ http缓存
    查看>>
    node不是内部命令时配置node环境变量
    查看>>
    node中fs模块之文件操作
    查看>>
    Node中同步与异步的方式读取文件
    查看>>
    node中的get请求和post请求的不同操作【node学习第五篇】
    查看>>
    Node中的Http模块和Url模块的使用
    查看>>