#__author__:Mr丶zhang
#引入pymysql库,没有的话,请安装 pip install pymysql
import pymysql
dbObject = pymysql.connect(host='192.168.XX.XX', user='数据库用户名', passwd='数据库密码', charset='utf8',use_unicode=False)
cursor = dbObject.cursor()
sql = "SELECT * FROM ch_weather.cityCode" #sql语句
try:
cursor.execute(sql)
results = cursor.fetchall() #读取数据库信息,结果是一个tuple元祖
print type(results)
for i in range(len(results)):
print results[i] #遍历元祖,得到数据
except:
print "Error: unable to fecth data"
结果如图所示:
scrapy与mysql交互的插入语句怎么写(line) return item class MySQLPipeline(object): def __init__(self): self.dbpool = adbapi.ConnectionPool("MySQLdb", db = "scrapy
可以,要在pipelines.py items.py 还有爬虫文件中 要加items库文件之类的数据,这个具体就看慕课网 分布式爬虫 教程。(网络上盗版的很多,花个10 20去买一个看一下教程层就好了)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)