如何用PHP做网络爬虫

如何用PHP做网络爬虫,第1张

其实用PHP来爬会非常方便,主要是PHP的正则表达式功能在搜集页面连接方面很方便,另外PHP的fopen、file_get_contents以及libcur的函数非常方便的下载网页内容。

具体处理方式就是建立就一个任务队列,往队列里面插入一些种子任务和可以开始爬行,爬行的过程就是循环的从队列里面提取一个URL,打开后获取连接插入队列中,进行相关的保存。队列可以使用数组实现。

当然PHP作为但线程的东西,慢慢爬还是可以,怕的就是有的URL打不开,会死在那里。

php不太适合用来写网络爬虫,因为几乎没有现成的框架,或者成熟的下载机制,也不太适合做并发处理.

下载页面的话除了一个curl,就是file_get_contents,或者curl_multi来做并发请求.curl可以代理端口,虚假ip,带cookie,带header请求目标页面,下载完成之后解析页面可以用queryList来解析html.写法类似jQuery.

提供给你我之前写的类:curl.php  希望可以帮到你.

QueryList.php和phpQuery.php由于文件太大了,没办法贴上来

<?php

class Http {

    public function curlRequest($url, $postData = '', $timeOut = 10, $httpHeader = array()) {

        $handle = curl_init ()

        curl_setopt ( $handle, CURLOPT_URL, $url )

        if ($httpHeader) {

            curl_setopt($handle, CURLOPT_HTTPHEADER, $httpHeader)

        }

        curl_setopt ( $handle, CURLOPT_RETURNTRANSFER, true )

        curl_setopt ( $handle, CURLOPT_HEADER, 0 )                                                                curl_setopt ( $handle, CURLOPT_TIMEOUT, $timeOut )

        curl_setopt ( $handle, CURLOPT_FOLLOWLOCATION, 1 )

        curl_setopt ( $handle, CURLOPT_SSL_VERIFYPEER, false )

        curl_setopt ( $handle, CURLOPT_SSL_VERIFYHOST, false )

        curl_setopt ( $handle, CURLOPT_USERAGENT, 'Mozilla/5.0 (Macintosh Intel Mac OS X 10_7_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36')        curl_setopt ( $handle, CURLOPT_ENCODING, 'gzip,deflate,sdch')

        if (! empty ( $postData )) {

            curl_setopt ( $handle, CURLOPT_POST, 1 )

            curl_setopt ( $handle, CURLOPT_POSTFIELDS, $postData)

        }

        $result['response'] = curl_exec ( $handle )

        $result['httpStatus'] = curl_getinfo ( $handle, CURLINFO_HTTP_CODE )

        $result['fullInfo'] = curl_getinfo ( $handle )

        $result['errorMsg'] = ''

        $result['errorNo'] = 0

        if (curl_errno($handle)) {

            $result['errorMsg'] = curl_error($handle)

            $result['errorNo'] = curl_errno($handle)

        }

        curl_close ( $handle )

        return $result

    }

}

?>

pcntl_fork或者swoole_process实现多进程并发。按照每个网页抓取耗时500ms,开200个进程,可以实现每秒400个页面的抓取。

curl实现页面抓取,设置cookie可以实现模拟登录

simple_html_dom 实现页面的解析和DOM处理

如果想要模拟浏览器,可以使用casperJS。用swoole扩展封装一个服务接口给PHP层调用

在这里有一套爬虫系统就是基于上述技术方案实现的,每天会抓取几千万个页面。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/7333977.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-04
下一篇 2023-04-04

发表评论

登录后才能评论

评论列表(0条)

保存