python 去除html标签的几种方法

python 去除html标签的几种方法,第1张

python去除html标签的几种方法,代码如下:

#! /usr/bin/python

# -*- coding:utf-8 -*-

'''

Created on 2015-07-08

@author: Administrator

'''

import re

from HTMLParser import HTMLParser

class FilterTag():

    def __init__(self):

        pass

    def filterHtmlTag(self,htmlStr):

        '''

        过滤html中的标签

        :param htmlStr:html字符串 或是网页源码

        '''

        self.htmlStr = htmlStr

        #先过滤CDATA

        re_cdata=re.compile('//]*//\]\]>',re.I) #匹配CDATA

        re_script=re.compile('<\s*script[^>]*>[^<]*<\s*/\s*script\s*>',re.I)#Script

        re_style=re.compile('<\s*style[^>]*>[^<]*<\s*/\s*style\s*>',re.I)#style

        re_br=re.compile('')#处理换行

        re_h=re.compile(']*>')#HTML标签

        re_comment=re.compile('')#HTML注释

        s=re_cdata.sub('',htmlStr)#去掉CDATA

        s=re_script.sub('',s) #去掉SCRIPT

        s=re_style.sub('',s)#去掉style

        s=re_br.sub('\n',s)#将br转换为换行

        blank_line=re.compile('\n+')#去掉多余的空行

        s = blank_line.sub('\n',s)

        s=re_h.sub('',s) #去掉HTML 标签

        s=re_comment.sub('',s)#去掉HTML注释

        #去掉多余的空行

        blank_line=re.compile('\n+')

        s=blank_line.sub('\n',s)

        filterTag = FilterTag()

        s=filterTag.replaceCharEntity(s)#替换实体

        print  s

    

    def replaceCharEntity(self,htmlStr):

        '''

        替换html中常用的字符实体

        使用正常的字符替换html中特殊的字符实体

        可以添加新的字符实体到CHAR_ENTITIES 中

    CHAR_ENTITIES是一个字典前面是特殊字符实体  后面是其对应的正常字符

        :param htmlStr:

        '''

        self.htmlStr = htmlStr

        CHAR_ENTITIES={'nbsp':' ','160':' ',

                'lt':'<','60':'<',

                'gt':'>','62':'>',

                'amp':'&','38':'&',

                'quot':'"','34':'"',}

        re_charEntity=re.compile(r'&#?(?P\w+)')

        sz=re_charEntity.search(htmlStr)

        while sz:

            entity=sz.group()#entity全称,如>

            key=sz.group('name')#去除&后的字符如(" "--->key = "nbsp")去除&后entity,如>为gt

            try:

                htmlStr= re_charEntity.sub(CHAR_ENTITIES[key],htmlStr,1)

                sz=re_charEntity.search(htmlStr)

            except KeyError:

                #以空串代替

                htmlStr=re_charEntity.sub('',htmlStr,1)

                sz=re_charEntity.search(htmlStr)

        return htmlStr

    

    def replace(self,s,re_exp,repl_string):

        return re_exp.sub(repl_string)

    

    

    def strip_tags(self,htmlStr):

        '''

        使用HTMLParser进行html标签过滤

        :param htmlStr:

        '''

        self.htmlStr = htmlStr

        htmlStr = htmlStr.strip()

        htmlStr = htmlStr.strip("\n")

        result = []

        parser = HTMLParser()

        parser.handle_data = result.append

        parser.feed(htmlStr)

        parser.close()

        return  ''.join(result)

    

    def stripTagSimple(self,htmlStr):

        '''

        最简单的过滤html <>标签的方法    注意必须是<任意字符>  而不能单纯是<>

        :param htmlStr:

        '''

        self.htmlStr = htmlStr

        #dr =re.compile(r'<[^>]+>',re.S)

        dr = re.compile(r']*>',re.S)

        htmlStr =re.sub(dr,'',htmlStr)

        return  htmlStr

if __name__=='__main__':

#     s = file('Google.html').read()

    filters = FilterTag()

    print filters.stripTagSimple("<1>你好")

Python爬虫即使用Python程序开发的网络爬虫(网页蜘蛛,网络机器人),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。其实通俗的讲就是通过程序去获取 web 页面上自己想要的数据,也就是自动抓取数据。网络爬虫(英语:web crawler),也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。其目的一般为编纂网络索引。

网络搜索引擎等站点通过爬虫软件更新自身的网站内容或其对其他网站的索引。网络爬虫可以将自己所访问的页面保存下来,以便搜索引擎事后生成索引供用户搜索。

爬虫访问网站的过程会消耗目标系统资源。不少网络系统并不默许爬虫工作。因此在访问大量页面时,爬虫需要考虑到规划、负载,还需要讲“礼貌”。 不愿意被爬虫访问、被爬虫主人知晓的公开站点可以使用robots.txt文件之类的方法避免访问。这个文件可以要求机器人只对网站的一部分进行索引,或完全不作处理。

互联网上的页面极多,即使是最大的爬虫系统也无法做出完整的索引。因此在公元2000年之前的万维网出现初期,搜索引擎经常找不到多少相关结果。现在的搜索引擎在这方面已经进步很多,能够即刻给出高质量结果。

爬虫还可以验证超链接和HTML代码,用于网络抓取。

Python 爬虫

Python 爬虫架构

Python 爬虫架构主要由五个部分组成,分别是调度器、URL 管理器、网页下载器、网页解析器、应用程序(爬取的有价值数据)。

调度器:相当于一台电脑的 CPU,主要负责调度 URL 管理器、下载器、解析器之间的协调工作。

URL 管理器:包括待爬取的 URL 地址和已爬取的 URL 地址,防止重复抓取 URL 和循环抓取 URL,实现 URL 管理器主要用三种方式,通过内存、数据库、缓存数据库来实现。

网页下载器:通过传入一个 URL 地址来下载网页,将网页转换成一个字符串,网页下载器有 urlpb2(Python 官方基础模块)包括需要登录、代理、和 cookie,requests(第三方包)

网页解析器:将一个网页字符串进行解析,可以按照我们的要求来提取出我们有用的信息,也可以根据 DOM 树的解析方式来解析。网页解析器有正则表达式(直观,将网页转成字符串通过模糊匹配的方式来提取有价值的信息,当文档比较复杂的时候,该方法提取数据的时候就会非常的困难)、html.parser(Python 自带的)、beautifulsoup(第三方插件,可以使用 Python 自带的 html.parser 进行解析,也可以使用 lxml 进行解析,相对于其他几种来说要强大一些)、lxml(第三方插件,可以解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 树的方式进行解析的。

应用程序:就是从网页中提取的有用数据组成的一个应用。

爬虫可以做什么?

你可以用爬虫爬图片,爬取视频等等你想要爬取的数据,只要你能通过浏览器访问的数据都可以通过爬虫获取。

爬虫的本质是什么?

模拟浏览器打开网页,获取网页中我们想要的那部分数据

浏览器打开网页的过程:

当你在浏览器中输入地址后,经过 DNS 服务器找到服务器主机,向服务器发送一个请求,服务器经过解析后发送给用户浏览器结果,包括 html,js,css 等文件内容,浏览器解析出来最后呈现给用户在浏览器上看到的结果

所以用户看到的浏览器的结果就是由 HTML 代码构成的,我们爬虫就是为了获取这些内容,通过分析和过滤 html 代码,从中获取我们想要资源。

相关推荐:《Python教程》以上就是小编分享的关于python的爬虫是什么意思的详细内容希望对大家有所帮助,更多有关python教程请关注环球青藤其它相关文章!


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/7361704.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-04
下一篇 2023-04-04

发表评论

登录后才能评论

评论列表(0条)

保存