Python 用Redis简单实现分布式爬虫的方法

Python 用Redis简单实现分布式爬虫的方法,第1张

概述Redis通常被认为是一种持久化的存储器关键字-值型存储,可以用于几台机子之间的数据共享平台。

Redis通常被认为是一种持久化的存储器关键字-值型存储,可以用于几台机子之间的数据共享平台。

连接数据库

注意:假设现有几台在同一局域网内的机器分别为Master和几个Slaver

Master连接时host为localhost即本机的ip

_db = redis.Reds(host='localhost',port=6379,db=0)

Slaver连接时的host也为Master的ip,端口port和数据库db不写时为默认值6379、0

_db = redis.Redis(host='192.168.235.80')

Redis含列表、集合,字符串等几种数据结构,具体详细的几种数据结构的 *** 作命令可查看Redis官网http://redis.io/commands,下面是对集合进行 *** 作的一些命令

_db.sadd(key,*values) # 插入指定values到集合中并返回新插入的的值的数量_db.spop(self.key) # 随机从集合中的得到一个元素将其从集合中删除并作为返回值返回_db.smembers(self.key) # 返回集合的所有元素_db.delete(key) # 删除整个集合,成功返回1,失败返回0_db.srandmember(self.key) # 从集合中随机选取一个元素作为返回_db.sismember(self.key,value) # 判断指定value是否在本集合中,成功返回1,失败返回0

例如,Master可利用redis将url上传到数据库

for i in range(20): # 将需爬取的糗事百科前20页的url并存入urls集合  url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1)  _db.sadd('urls',url) # 将url插入关键字urls集合中,若url已存在则不再插入

进而Master和Slaver可从数据库里获取url

url = _db.spop('urls') # 随机从urls集合中取出一个url返回并将其删去

同理,Master可利用上面的方法将其他一些共用的资源上传到数据库,Slaver就可从数据库下载需要的东西。下面是一个完整的例子

# Coding=utf-8import urllib2import reimport timeimport redisheaders = {'User-Agent': 'Mozilla/5.0 (X11; linux x86_64) AppleWebKit/537.36 (KHTML,like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36'}job_redis = redis.Redis(host='192.168.235.80') # host为主机的IP,port和db为默认值class Clawer(object):  IDentity = 'master' # 或slaver  def __init__(self):    if self.IDentity == 'master':      for i in range(20): # 将需爬取的糗事百科前20页的url并存入urls集合        url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1)        job_redis.sadd('urls',url)    self.main()  def get_content(self):    """    从糗事百科中获取故事    :return: 故事列表    """    storIEs = []    content_pattern = re.compile('<div >([\w\W]*?)</div>([\w\W]*?)') # 匹配故事内容(第一空)和是否含有图片(第二空)的模板    pattern = re.compile('<.*?>') # 匹配包括括号及括号内无关内容的模板    url = job_redis.spop('urls')    while url: # 当数据库还存在网页url,取出一个并爬取      try:        request = urllib2.Request(url,headers=headers)        response = urllib2.urlopen(request)        text = response.read()      except urllib2.URLError,e: # 若出现网页读取错误捕获并输出        if hasattr(e,"reason"):          print e.reason      content = re.findall(content_pattern,text) # 获取含模板内容的列表      for x in content:        if "img" not in x[1]: # 过滤含图片的故事          x = re.sub(pattern,'',x[0])          x = re.sub('\n',x)          storIEs.append(x)      url = job_redis.spop('urls')      time.sleep(3)    return storIEs  def main(self):    self.get_content()if __name__ == '__main__':  Clawer()

将此代码在几台机器同时运行,调节其身份为master或slaver,做到简单的分布式爬虫

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程小技巧。

总结

以上是内存溢出为你收集整理的Python 用Redis简单实现分布式爬虫的方法全部内容,希望文章能够帮你解决Python 用Redis简单实现分布式爬虫的方法所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/1201200.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)

保存