python爬取到的json数据怎么存入到MySQL数据库中
json的数据jsonloads进来以后会变成一个json的对象,你需要自己把python对象中的字段值取出来,拼成sql语句
db = pymongoMongoClient()test
dates = dbuserfind()
print type(dates)
for i in dates:
print ikeys()
break
创建连接,取到dates数据,不就是一个字典列表啊,取一个值然后字典 *** 作keys()不就可以了。
select bug_type,bug_severity,count(bug_type),ft_id from tm_bug group by ft_id,bug_type,bug_severity
查找表 tm_bug ,字段1名称为(bug_type),字段2名称为(bug_severity),字段3名称为(ft_id),行数,,以为具有相同字段的ft_id,bug_type,bug_severity进行分组,
我只能帮你翻译一下这个 sql语句了,你其他我不知道不全
数据存放在MySQL里面,在数据库里面查询发现有个字段的数据是JSON格式,不方便进行后续的 *** 作,比方说:统计分析,特征提取等。所以想把这个字段里面的JSON格式数据进行解析,解析成功后,然后把以结构化表的形式存放到MySQL数据库。
具体步骤:
通过Python3连接MySQL,
获取MySQL数据集,
利用Python的相应库解析JSON格式数据,
把解析好数据放到数据框,并回存到MySQL数据库。
class Buffer(object):
MAXSIZE = 8192
def __init__(self, conn, sql):
selfconn = conn
selfsql = sql
selfbuffer = []
def append(self, data):
selfbufferappend(data)
if len(selfbuffer) > selfMAXSIZE:
selfflush()
def flush(self):
data, selfbuffer = selfbuffer, []
curr = selfconncursor()
currexecutemany(selfsql, data)
selfconncommit()
# here are your code for init database connect conn_src and conn_store
buff = Buffer(conn_store, "insert into sybase_user values (%s, %s)")
sql_query = "select aid, aname from user_info a where aid=%s"
curr_src = conn_srccursor()
curr_srcexecute(sql_query, '0001')
for row in curr_src:
buffappend(row)
buffflush()
这个脚本可以直接运行,将csv文件放在同级目录即可。
csv第一列需要有列名,如果csv里没有列名,需要在代码中添加列名。
代码运行示例:python insertpy csvname tablename
以上就是关于如何将该Python爬取的数据存入MySQL中,数据库表带id全部的内容,包括:如何将该Python爬取的数据存入MySQL中,数据库表带id、如何使用python获取mongoDB数据库中表格的字段名、python中 怎样将从数据库中取出的数据,赋值给DataFrame,并标明列名等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)