最近央视新闻记者王冰冰以清除可爱和专业的新闻业务水平深受众多网友喜爱,b站也有很多up主剪辑了关于王冰冰的视频。我们都是知道b站是一个d幕网站,那你知道如何爬取b站实时d幕吗?本文以王冰冰视频d幕为例,向大家介绍Python爬虫实现自动化爬取b站实时d幕的过程。
1、导入需要的库
import jieba # 分词 from wordcloud import WordCloud # 词云 from PIL import Image # 图片处理 import numpy as np # 图片处理 import matplotlib.pyplot as plt # 画图
2、 jieba分词
所谓的分词就是将一句话分成一个或几个词语的形式,
分词代码
# 读取停用词库,注意编码应为‘utf8’ f = open('小夜斗的停用词表.txt', encoding='utf8') stopwords = f.read().split('n') print(stopwords) # 打印停用词 f.close() # 关闭停用词文件
3、打印出的为一个停用词列表
with open("冰冰vlog2.txt", "r", encoding='utf8') as fp: text = fp.read()
4、读取冰冰d幕数据文件的 *** 作,将其保存到text变量中
segs = jieba.cut(text) # 进行jieba分词 mytext_list = [] # 构建一个容纳过滤掉停用词的冰冰d幕数据文件 # 文本清洗 for seg in segs: # 循环遍历每一个分词文本 # 如果该词不属于停用词表 并且非空 长度不为1 if seg not in stopwords and seg != "" and len(seg) != 1: # 将该词语添加到mytext_list列表中 mytext_list.append(seg.replace(" ", "")) print(mytext_list) # 打印过滤后的冰冰d幕数据
5、获取过滤停用词后的冰冰d幕数据
cloud_text = ",".join(mytext_list) # 连接列表里面的词语 print(cloud_text)
以上就是Python爬虫实现自动化爬取b站实时d幕的过程,希望能对你有所帮助哦~更多python爬虫学习推荐:python爬虫。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)