Python爬虫新手入门教学(八):爬取论坛文章保存成PDF

Python爬虫新手入门教学(八):爬取论坛文章保存成PDF,第1张

概述前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。Python爬虫、数据分析、网站开发等案例教程视频免费在线观看https://space.bilibili.com/523606542前文内容Python爬虫新手入门教学(一):爬取豆瓣电影排行信息Pyt 前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

Python爬虫、数据分析、网站开发等案例教程视频免费在线观看

https://space.bilibili.com/523606542
@H_502_11@

前文内容

Python爬虫新手入门教学(一):爬取豆瓣电影排行信息

Python爬虫新手入门教学(二):爬取小说

Python爬虫新手入门教学(三):爬取链家二手房数据

Python爬虫新手入门教学(四):爬取前程无忧招聘信息

Python爬虫新手入门教学(五):爬取B站视频d幕

Python爬虫新手入门教学(六):制作词云图

Python爬虫新手入门教学(七):爬取腾讯视频d幕

基本开发环境Python 3.6PycharmwkHTMLtopdf相关模块的使用pdfkitrequestsparsel

安装Python并添加到环境变量,pip安装需要的相关模块即可。

一、目标需求@H_502_11@

 


将CSDN这上面的文章内容爬取保存下来,保存成pdf的格式。

二、网页数据分析

如果想要把网页文章内容保存成pdf,首先你要下载一个软件 wkHTMLtopdf 不然你是没有办法实现的。可以自行去百度搜索下载,也可以找上面的 交流群 下载。

@H_502_11@

 


前几篇文章已经讲了,关于文字方面的爬取方式,对于爬取文本内容还是没有难度了吧。

想要获取文章内容,首先就要爬取每篇文章的URL地址。

@H_502_11@

 


具体分析的流程之前的文章也有分享过,这里就跳过了。

python爬取CSDN博客文章并制作成pdf文件

完整实现代码
import pdfkitimport requestsimport parselHTML_str = """<!DOCTYPE HTML><HTML lang="en"><head>    <Meta charset="UTF-8">    <Title>document</Title></head><body>{article}</body></HTML>"""def save(article, Title):    pdf_path = 'pdf\' + Title + '.pdf'    HTML_path = 'HTML\' + Title + '.HTML'    HTML = HTML_str.format(article=article)    with open(HTML_path, mode='w', enCoding='utf-8') as f:        f.write(HTML)        print('{}已下载完成'.format(Title))    # exe 文件存放的路径    config = pdfkit.configuration(wkHTMLtopdf='C:\Program files\wkHTMLtopdf\bin\wkHTMLtopdf.exe')    # 把 HTML 通过 pdfkit 变成 pdf 文件    pdfkit.from_file(HTML_path, pdf_path, configuration=config)def main(HTML_url):    # 请求头    headers = {        "Host": "blog.csdn.net",        "Referer": "https://blog.csdn.net/qq_41359265/article/details/102570971",        "User-Agent": "Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36",    }    # 用户信息    cookie = {        'cookie': '你自己的cookie'    }    response = requests.get(url=HTML_url, headers=headers, cookies=cookie)    selector = parsel.Selector(response.text)    urls = selector.CSS('.article-List h4 a::attr(href)').getall()    for HTML_url in urls:        response = requests.get(url=HTML_url, headers=headers, cookies=cookie)        # text 文本(字符串)        # 遭遇了反扒        # print(response.text)        """如何把 HTML 变成 pdf 格式"""        # 提取文章部分        sel = parsel.Selector(response.text)        # CSS 选择器        article = sel.CSS('article').get()        Title = sel.CSS('h1::text').get()        save(article, Title)if __name__ == '__main__':    url = 'https://blog.csdn.net/fei347795790/article/List/1'    main(url)

 

@H_502_11@

 

@H_502_11@

 

@H_502_11@

总结

以上是内存溢出为你收集整理的Python爬虫新手入门教学(八):爬取论坛文章保存成PDF全部内容,希望文章能够帮你解决Python爬虫新手入门教学(八):爬取论坛文章保存成PDF所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1186486.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存