本文介绍了python实现简单中文词频统计示例,分享给大家,具体如下:
任务
简单统计一个小说中哪些个汉字出现的频率最高
知识点
1.文件 *** 作
2.字典
3.排序
4.lambda
代码
import codecsimport matplotlib.pyplot as pltfrom pylab import mplmpl.rcParams['Font.sans-serif'] = ['FangSong'] # 指定默认字体mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题word = []counter = {}with codecs.open('data.txt') as fr: for line in fr: line = line.strip() if len(line) == 0: continue for w in line: if not w in word: word.append(w) if not w in counter: counter[w] = 0 else: counter[w] += 1counter_List = sorted(counter.items(),key=lambda x: x[1],reverse=True)print(counter_List[:50])label = List(map(lambda x: x[0],counter_List[:50]))value = List(map(lambda y: y[1],counter_List[:50]))plt.bar(range(len(value)),value,tick_label=label)plt.show()
统计了一个11M的小说,结果如下:
[(',',288508),('。',261584),('的',188693),('陈',92565),('欢',92505),('不',91234),('是',90562),('了',86931),('一',79059),('着',77997),('他'
,71695),('这',63580),('人',61210),('“',59719),('”',59115),('有',56054),('就',52862),('个',49097),('都',46850),('你',45400),('来',42659),
('我',40057),('在',37676),('们',36966),('到',36351),('说',35828),('还',35260),('么',32601),('下',31742),('地',30692),('得',29904),('上',2
9627),('看',28408),('没',28333),('出',27937),('道',27732),('大',27012),('?',26729),('那',26589),('要',26076),('子',25035),('自',24012),('
点',23942),('好',21345),('想',21242),('里',20915),('面',20661),('她',20313),('过',20304),('话',20110)]
使用jIEba先对中文文档进行分词处理
import sys reload(sys) sys.setdefaultencoding("utf-8") import jIEba import jIEba.analyse wf = open('clean_Title.txt','w+') for line in open('/root/clean_data/clean_data.csv'): item = line.strip('\n\r').split('\t') //制表格切分 # print item[1] Tags = jIEba.analyse.extract_Tags(item[1]) //jIEba分词 Tagsw = ",".join(Tags) //逗号连接切分的词 wf.write(Tagsw) wf.close()
输出的clean_Title.txt内容
邮轮,地中海,深度,罗马,自由纳西,柏林签证,步行,三天,批准申根,手把手,签证,申请,如何赞爆,法兰,穿越,葡萄酒,风景,河谷,世界欧洲颜色,一种,国家,一个水族箱,帕劳,七日,上帝奥林匹亚,跑步圣托,
里尼,文明古国,探访,爱琴海,魅力,希腊
2、统计词频
#!/usr/bin/python # -*- Coding:utf-8 -*- word_lst = [] word_dict= {} with open('/root/clean_data/clean_Title.txt') as wf,open("word.txt",'w') as wf2: //打开文件 for word in wf: word_lst.append(word.split(',')) //使用逗号进行切分 for item in word_lst: for item2 in item: if item2 not in word_dict: //统计数量 word_dict[item2] = 1 else: word_dict[item2] += 1 for key in word_dict: print key,word_dict[key] wf2.write(key+' '+str(word_dict[key])+'\n') //写入文档
结果:
最后 4
欧洲幽蓝 1
集美 1
葡萄牙法多 1
工地 1
知道湖光山色 1
神圣 7
欧洲少女瑞士加游 1
根据词汇数量排序查看:
cat word.txt |sort -nr -k 2|more
神圣 7
最后 4
欧洲幽蓝 1
集美 1
葡萄牙法多 1
工地 1
知道湖光山色 1
欧洲少女瑞士加游 1
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程小技巧。
总结以上是内存溢出为你收集整理的python实现简单中文词频统计示例全部内容,希望文章能够帮你解决python实现简单中文词频统计示例所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)