Auth: 王海飞
Data:2018-07-05
Email:779598160@qq.com
github:https://github.com/coco369/knowledge
说到分布式系统的时候,要和集中式系统进行对比的学习,下面就先介绍下集中式系统,对比它们的优缺点进行学习。
集中式系统:
集中式系统中整个项目就是一个独立的应用,整个应用也就是整个项目,所有的业务逻辑功能都在一个应用里面。如果遇到并发的瓶颈的时候,就多增加几台服务器来部署项目,以此来解决并发分问题。在nginx中进行负载均衡即可。
缺点:
a) 不易于扩展
b) 如果发现你的项目代码中有bug的话,那么你的所有的服务器中的项目代码都是有问题的,这时候要更新这个bug的时候,就需要同时更新所有的服务器了。
优点:
维护方便
分布式系统:
分布式系统中,我们的整个项目可以拆分成很多业务块,每一个业务块单独进行集群的部署。这样就将整个项目分开了,在进行拓展的时候,系统是很容易横向拓展的。在并发的时候,也很好的将用户的并发量提上去。
缺点:
a) 项目拆分的过于复杂,给运维带来了很高的维护成本
b) 数据的一致性,分布式事务,分布式锁等问题不能得到很好的解决
优点:
a) 一个业务模块崩了,并不影响其他的业务
b) 利于扩展
c) 在上线某个新功能的时候,只需要新增对应的分布式的节点即可,测试也只需要测试该业务功能即可。很好的避免了测试在上线之前需要将整个系统进行全方面的测试
我们还是先回顾下scrapy的运行原理的构造图:
该图很好的阐释了在不是scrapy的服务器中的运行结构图,在维护爬取的url队列的时候,使用scheduler进行调度的。那么如果要修改为分布式的scrapy爬虫的话,其实就是将爬取的队列进行共享,多台部署了scrapy爬虫的服务器共享该爬取队列。
master-主机:维护爬虫队列。
slave-从机:数据爬取,数据处理,数据存储。
我们使用scrapy_redis进行分布式爬虫的搭建。
scrapy_redis是scrapy框架下的一个插件,通过重构调度器来使我们的爬虫运行的更快
安装scrapy_redis:
pip install scrapy_redis
安装redis:
# redis可以仅在master主机上安装
pip install redis
安装数据存储数据库,采用mongodb 见: 安装配置地址
在维护爬虫队列的时候,很多爬虫项目同时读取队列中的信息,就造成了可能读数据重复了,比如同时读取同一个url。为了避免这种情况,我们建议使用redis去维护队列。而且redis的集合中的元素还不是重复的,可以很好的利用这一点,进行url爬取地址的存储
master主机改造: 在master主机上安装redis并启动,最好设置密码
如下爬虫实现的功能是拿到需要爬取的成都各大区县的二手房页面url地址,包括分页的地址。并将数据存储到redis中
import json
from scrapy import Request
from scrapy.spiders import Spider
from scrapy.selector import Selector
from lianjiaspider.items import LianjiaspiderItem, MasterItem
class LianJiaSpider(Spider):
name = 'lianjia'
# allowed_domains = ['lianjia.com']
domains_url = 'https://cd.lianjia.com'
start_linjia_url = 'https://cd.lianjia.com/ershoufang'
def start_requests(self):
yield Request(self.start_linjia_url)
def parse(self, response):
sel = Selector(response)
ershoufang_aera = sel.xpath('//div[@data-role="ershoufang"]')
area_info = ershoufang_aera.xpath('./div/a')
for area in area_info:
area_href = area.xpath('./@href').extract()[0]
area_name = area.xpath('./text()').extract()[0]
yield Request(self.domains_url + area_href,
callback=self.parse_house_info,
meta={'name': area_name, 'href': area_href})
def parse_house_info(self, response):
sel = Selector(response)
page_box = sel.xpath('//div[@class="page-box house-lst-page-box"]/@page-data').extract()
total_page = json.loads(page_box[0]).get('totalPage')
for i in range(1, int(total_page)+1):
item = MasterItem()
item['url'] = self.domains_url + response.meta.get('href') + 'pg' + str(i)
yield item
接收一个地址url参数:
class MasterItem(scrapy.Item):
url = scrapy.Field()
class MasterPipeline(object):
def __init__(self):
# 链接redis
self.r = redis.Redis(host='127.0.0.1', port=6379)
def process_item(self, item, spider):
# 向redis中插入需要爬取的链接地址
self.r.lpush('lianjia:start_urls', item['url'])
slave从机改造:slave从机访问redis,直接去访问master主机上的redis的地址,以及端口密码等信息
继承改为继承Redisspider
from scrapy_redis.spiders import RedisSpider
具体代码优化如下:
from scrapy_redis.spiders import RedisSpider
from scrapy.selector import Selector
from lianjiaspider.items import LianjiaspiderItem
class LianJiaSpider(RedisSpider):
name = 'lianjia'
# 指定访问redis的爬取urls的队列
redis_key = 'lianjia:start_urls'
def parse(self, response):
sel = Selector(response)
lis = sel.xpath('//html/body/div[4]/div[1]/ul/li[@class="clear"]')
for li in lis:
item = LianjiaspiderItem()
item['house_code'] = li.xpath('./a/@data-housecode').extract()[0]
if li.xpath('./a/img/@src').extract():
item['img_src'] = li.xpath('./a/img/@src').extract()[0]
if li.xpath('./div/div/a/text()').extract():
item['title'] = li.xpath('./div/div/a/text()').extract()[0]
item['address'] = li.xpath('./div/div[2]/div/a/text()').extract()
item['info'] = li.xpath('./div/div[2]/div/text()').extract()
item['flood'] = li.xpath('./div/div[3]/div/text()').extract()
item['tag'] = li.xpath('.//div[@class="tag"]/span/text()').extract()
item['type'] = 'ershoufang'
item['city'] = '成都'
yield item
def split_house_info(self, info):
return [i.strip() for i in info.split('|')[1:]]
新增如下的配置:
# scrapy-redis
REDIS_URL = 'redis://:yzd@127.0.0.1:6379' # for master
# REDIS_URL = 'redis://:yzd@10.140.0.2:6379' # for slave (master's ip)
# SCHEDULER 是任务分发与调度,把所有的爬虫开始的请求都放在redis里面,所有爬虫都去redis里面读取请求。
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 如果这一项设为True,那么在Redis中的URL队列不会被清理掉,但是在分布式爬虫共享URL时,要防止重复爬取。如果设为False,那么每一次读取URL后都会将其删掉,但弊端是爬虫暂停后重新启动,他会重新开始爬取。
SCHEDULER_PERSIST = True
# REDIS_START_URLS_AS_SET指的是使用redis里面的set类型(简单完成去重),如果你没有设置,默认会选用list。
REDIS_START_URLS_AS_SET = True
# DUPEFILTER_CLASS 是去重队列,负责所有请求的去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 爬虫的请求调度算法,有三种可供选择
# scrapy_redis.queue.SpiderQueue:队列。先入先出队列,先放入Redis的请求优先爬取;
# scrapy_redis.queue.SpiderStack:栈。后放入Redis的请求会优先爬取;
# scrapy_redis.queue.SpiderPriorityQueue:优先级队列。根据优先级算法计算哪个先爬哪个后爬
SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderQueue"
# 设置链接redis的配置,或者如下分别设置端口和IP地址
REDIS_URL = 'redis://127.0.0.1:6379'
# 分布式爬虫设置Ip端口
REDIS_HOST = '127.0.0.1'
REDIS_PORT = 6379