具体处理方式就是建立就一个任务队列,往队列里面插入一些种子任务和可以开始爬行,爬行的过程就是循环的从队列里面提取一个URL,打开后获取连接插入队列中,进行相关的保存。队列可以使用数组实现。
当然PHP作为但线程的东西,慢慢爬还是可以,怕的就是有的URL打不开,会死在那里。
php不太适合用来写网络爬虫,因为几乎没有现成的框架,或者成熟的下载机制,也不太适合做并发处理.
下载页面的话除了一个curl,就是file_get_contents,或者curl_multi来做并发请求.curl可以代理端口,虚假ip,带cookie,带header请求目标页面,下载完成之后解析页面可以用queryList来解析html.写法类似jQuery.
提供给你我之前写的类:curl.php 希望可以帮到你.
QueryList.php和phpQuery.php由于文件太大了,没办法贴上来
<?phpclass Http {
public function curlRequest($url, $postData = '', $timeOut = 10, $httpHeader = array()) {
$handle = curl_init ()
curl_setopt ( $handle, CURLOPT_URL, $url )
if ($httpHeader) {
curl_setopt($handle, CURLOPT_HTTPHEADER, $httpHeader)
}
curl_setopt ( $handle, CURLOPT_RETURNTRANSFER, true )
curl_setopt ( $handle, CURLOPT_HEADER, 0 ) curl_setopt ( $handle, CURLOPT_TIMEOUT, $timeOut )
curl_setopt ( $handle, CURLOPT_FOLLOWLOCATION, 1 )
curl_setopt ( $handle, CURLOPT_SSL_VERIFYPEER, false )
curl_setopt ( $handle, CURLOPT_SSL_VERIFYHOST, false )
curl_setopt ( $handle, CURLOPT_USERAGENT, 'Mozilla/5.0 (Macintosh Intel Mac OS X 10_7_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36') curl_setopt ( $handle, CURLOPT_ENCODING, 'gzip,deflate,sdch')
if (! empty ( $postData )) {
curl_setopt ( $handle, CURLOPT_POST, 1 )
curl_setopt ( $handle, CURLOPT_POSTFIELDS, $postData)
}
$result['response'] = curl_exec ( $handle )
$result['httpStatus'] = curl_getinfo ( $handle, CURLINFO_HTTP_CODE )
$result['fullInfo'] = curl_getinfo ( $handle )
$result['errorMsg'] = ''
$result['errorNo'] = 0
if (curl_errno($handle)) {
$result['errorMsg'] = curl_error($handle)
$result['errorNo'] = curl_errno($handle)
}
curl_close ( $handle )
return $result
}
}
?>
pcntl_fork或者swoole_process实现多进程并发。按照每个网页抓取耗时500ms,开200个进程,可以实现每秒400个页面的抓取。
curl实现页面抓取,设置cookie可以实现模拟登录
simple_html_dom 实现页面的解析和DOM处理
如果想要模拟浏览器,可以使用casperJS。用swoole扩展封装一个服务接口给PHP层调用
在这里有一套爬虫系统就是基于上述技术方案实现的,每天会抓取几千万个页面。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)