scrapy 怎么导入mysql

scrapy 怎么导入mysql,第1张

# -*- coding: utf-8 -*-

#__author__:Mr丶zhang

#引入pymysql库,没有的话,请安装  pip install pymysql

import pymysql

dbObject = pymysql.connect(host='192.168.XX.XX', user='数据库用户名', passwd='数据库密码', charset='utf8',use_unicode=False)

       cursor = dbObject.cursor()

       sql = "SELECT * FROM ch_weather.cityCode"     #sql语句

       try:

           cursor.execute(sql)

           results = cursor.fetchall() #读取数据库信息,结果是一个tuple元祖

           print type(results)

           for i in range(len(results)):

               print results[i] #遍历元祖,得到数据

       except:

           print "Error: unable to fecth data"

结果如图所示:

scrapy与mysql交互的插入语句怎么写

(line) return item class MySQLPipeline(object): def __init__(self): self.dbpool = adbapi.ConnectionPool("MySQLdb", db = "scrapy

可以,要在pipelines.py items.py 还有爬虫文件中 要加items库文件之类的数据,

这个具体就看慕课网 分布式爬虫 教程。(网络上盗版的很多,花个10 20去买一个看一下教程层就好了)


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/8631565.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-19
下一篇 2023-04-19

发表评论

登录后才能评论

评论列表(0条)

保存