烟台达内的小编总结,Scrapy架构概览
要探究清楚Spider Middleware,首先得对Scrapy框架的整体架构有个大致的认识
1,组件(Components)
Scrapy 引擎(Engine)
引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。 详细内容查看下面的数据流(Data Flow)部分。
调度器(Scheduler)
调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。
下载器(Downloader)
下载器负责获取页面数据并提供给引擎,而后提供给spider.
Spiders
Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站,我们前面几篇文章中,通过Scrapy框架实现的爬虫例子都是在Spiders这个组件中实现。 更多内容请看 Spiders .

管道(Item Pipeline)
Item Pipeline负责处理被spider提取出来的item.典型的处理有清理、 验证及持久化(例如存取到数据库中)。 更多内容查看 Item Pipeline .
下载器中间件(Downloader Middlewares)
下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response,以及引擎传递给Downloader的request,(介于reuqest和response之间) 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Downloader Middleware .
Spider中间件(Spider Middlewares)
Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider Middleware .
2,数据流(Data flow)
Scrapy中的数据流由执行引擎控制,其过程如下:
1,引擎从Spiders中获取到最初的要爬取的请求(Requests)。
2,引擎安排请求(Requests)到调度器中,并向调度器请求下一个要爬取的请求(Requests)。
以上就是烟台达内给大家做的内容详解,更多关于IT的学习,请继续关注烟台达内