本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。
Python爬虫、数据分析、网站开发等案例教程视频免费在线观看
https://space.bilibili.com/523606542@H_502_11@前文内容
Python爬虫新手入门教学(一):爬取豆瓣电影排行信息
Python爬虫新手入门教学(二):爬取小说
Python爬虫新手入门教学(三):爬取链家二手房数据
Python爬虫新手入门教学(四):爬取前程无忧招聘信息
Python爬虫新手入门教学(五):爬取B站视频d幕
Python爬虫新手入门教学(六):制作词云图
Python爬虫新手入门教学(七):爬取腾讯视频d幕
基本开发环境Python 3.6PycharmwkHTMLtopdf相关模块的使用pdfkitrequestsparsel安装Python并添加到环境变量,pip安装需要的相关模块即可。
一、目标需求@H_502_11@
将CSDN这上面的文章内容爬取保存下来,保存成pdf的格式。
如果想要把网页文章内容保存成pdf,首先你要下载一个软件 wkHTMLtopdf 不然你是没有办法实现的。可以自行去百度搜索下载,也可以找上面的 交流群 下载。
@H_502_11@
前几篇文章已经讲了,关于文字方面的爬取方式,对于爬取文本内容还是没有难度了吧。
想要获取文章内容,首先就要爬取每篇文章的URL地址。
@H_502_11@
具体分析的流程之前的文章也有分享过,这里就跳过了。
python爬取CSDN博客文章并制作成pdf文件
完整实现代码import pdfkitimport requestsimport parselHTML_str = """<!DOCTYPE HTML><HTML lang="en"><head> <Meta charset="UTF-8"> <Title>document</Title></head><body>{article}</body></HTML>"""def save(article, Title): pdf_path = 'pdf\' + Title + '.pdf' HTML_path = 'HTML\' + Title + '.HTML' HTML = HTML_str.format(article=article) with open(HTML_path, mode='w', enCoding='utf-8') as f: f.write(HTML) print('{}已下载完成'.format(Title)) # exe 文件存放的路径 config = pdfkit.configuration(wkHTMLtopdf='C:\Program files\wkHTMLtopdf\bin\wkHTMLtopdf.exe') # 把 HTML 通过 pdfkit 变成 pdf 文件 pdfkit.from_file(HTML_path, pdf_path, configuration=config)def main(HTML_url): # 请求头 headers = { "Host": "blog.csdn.net", "Referer": "https://blog.csdn.net/qq_41359265/article/details/102570971", "User-Agent": "Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36", } # 用户信息 cookie = { 'cookie': '你自己的cookie' } response = requests.get(url=HTML_url, headers=headers, cookies=cookie) selector = parsel.Selector(response.text) urls = selector.CSS('.article-List h4 a::attr(href)').getall() for HTML_url in urls: response = requests.get(url=HTML_url, headers=headers, cookies=cookie) # text 文本(字符串) # 遭遇了反扒 # print(response.text) """如何把 HTML 变成 pdf 格式""" # 提取文章部分 sel = parsel.Selector(response.text) # CSS 选择器 article = sel.CSS('article').get() Title = sel.CSS('h1::text').get() save(article, Title)if __name__ == '__main__': url = 'https://blog.csdn.net/fei347795790/article/List/1' main(url)
@H_502_11@
@H_502_11@
@H_502_11@ 总结
以上是内存溢出为你收集整理的Python爬虫新手入门教学(八):爬取论坛文章保存成PDF全部内容,希望文章能够帮你解决Python爬虫新手入门教学(八):爬取论坛文章保存成PDF所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)