$url=/
$contents=file_get_contents($url)
//如果出现中文乱码使用下面代码
//$getcontent=iconv(”gb2312〃,“utf-8〃,file_get_contents($url))
//echo$getcontent
echo$contents
然后在从字符串中找到你要的
其实用PHP来爬会非常方便,主要是PHP的正则表达式功能在搜集页面连接方面很方便,另外PHP的fopen、file_get_contents以及libcur的函数非常方便的下载网页内容。具体处理方式就是建立就一个任务队列,往队列里面插入一些种子任务和可以开始爬行,爬行的过程就是循环的从队列里面提取一个URL,打开后获取连接插入队列中,进行相关的保存。队列可以使用数组实现。
当然PHP作为但线程的东西,慢慢爬还是可以,怕的就是有的URL打不开,会死在那里。
php不太适合用来写网络爬虫,因为几乎没有现成的框架,或者成熟的下载机制,也不太适合做并发处理.
下载页面的话除了一个curl,就是file_get_contents,或者curl_multi来做并发请求.curl可以代理端口,虚假ip,带cookie,带header请求目标页面,下载完成之后解析页面可以用queryList来解析html.写法类似jQuery.
提供给你我之前写的类:curl.php 希望可以帮到你.
QueryList.php和phpQuery.php由于文件太大了,没办法贴上来
<?phpclass Http {
public function curlRequest($url, $postData = '', $timeOut = 10, $httpHeader = array()) {
$handle = curl_init ()
curl_setopt ( $handle, CURLOPT_URL, $url )
if ($httpHeader) {
curl_setopt($handle, CURLOPT_HTTPHEADER, $httpHeader)
}
curl_setopt ( $handle, CURLOPT_RETURNTRANSFER, true )
curl_setopt ( $handle, CURLOPT_HEADER, 0 ) curl_setopt ( $handle, CURLOPT_TIMEOUT, $timeOut )
curl_setopt ( $handle, CURLOPT_FOLLOWLOCATION, 1 )
curl_setopt ( $handle, CURLOPT_SSL_VERIFYPEER, false )
curl_setopt ( $handle, CURLOPT_SSL_VERIFYHOST, false )
curl_setopt ( $handle, CURLOPT_USERAGENT, 'Mozilla/5.0 (Macintosh Intel Mac OS X 10_7_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36') curl_setopt ( $handle, CURLOPT_ENCODING, 'gzip,deflate,sdch')
if (! empty ( $postData )) {
curl_setopt ( $handle, CURLOPT_POST, 1 )
curl_setopt ( $handle, CURLOPT_POSTFIELDS, $postData)
}
$result['response'] = curl_exec ( $handle )
$result['httpStatus'] = curl_getinfo ( $handle, CURLINFO_HTTP_CODE )
$result['fullInfo'] = curl_getinfo ( $handle )
$result['errorMsg'] = ''
$result['errorNo'] = 0
if (curl_errno($handle)) {
$result['errorMsg'] = curl_error($handle)
$result['errorNo'] = curl_errno($handle)
}
curl_close ( $handle )
return $result
}
}
?>
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)