什么网页数据?
是打开 本地网页还是打开网上网页
如果是本地网页的话 在浏览器上输入127.0.0.1或者localhost进行访问
如果是外网我理解的是你要获取外网的一个网页,可以用代码或者程序来实现
(一般称为采集程序,或者小偷程序)
//个人认为curl好一点,因为curl可以模拟浏览器,有的网站会过滤机器人
//1.php代码//把网页读入一个字符串
$contone = file_get_contents('url')
print_r($contone)
//curl采集
#初始化curl (true/false)
$ch=curl_init()
#请求url地址
$params[CURLOPT_URL]='网址'
#是否返回响应头信息
$params[CURLOPT_HEADER] = true
#是否将结果返回
$params[CURLOPT_RETURNTRANSFER] = true
#是否重定向
$params[CURLOPT_FOLLOWLOCATION] = true
#伪造浏览器
$params[CURLOPT_USERAGENT] = 'Mozilla/5.0 (Windows NT 5.1 rv:9.0.1) Gecko/20100101 Firefox/9.0.1'
curl_setopt_array($ch, $params)
$content=curl_exec($ch)
//输出网页内容
print_r($content)
//下面是整个curl采集类
class Curl{
#采集的地址
public $url
#匹配的正则
public $preg
#模拟登录需要的用户名
public $username
#模拟登录需要的密码
档旁public $pwd
#cookie存储的路径
private $cookie_path
#采集数据的字符集
public $charset
/**
* 构造方法,初始化采集基本信息
* @param $url 采集的url
* @param $preg 匹配的正则
* @param string $username 用户名
* @param string $pwd 密空蠢裂码
* @param string $charset 字符集
*/
public function __construct($info){
extract($info)
$this->url=$url
$this->preg=$preg
if(isset($charset)){
header("content-type:text/htmlcharset=".$this->charset)
}else{
header("content-type:text/htmlcharset=utf-8")
}
if(isset($username)){
$this->username=$username
}
if(isset($pwd)){
$this->pwd=$pwd
}
}
/*
* 采集数据,非表单提交方式,直接采集的
*/
public function get_info(){
#初始化curl
$ch=curl_init()
#请求url地址
$params[CURLOPT_URL]=$this->url
#是否返回响应头信息
$params[CURLOPT_HEADER] = true
#是否将结果返回
$params[CURLOPT_RETURNTRANSFER] = true
#是否重定向
$params[CURLOPT_FOLLOWLOCATION] = true
#伪造浏览器
$params[CURLOPT_USERAGENT] = 'Mozilla/5.0 (Windows NT 5.1 rv:9.0.1) Gecko/20100101 Firefox/9.0.1'
//判断是否有cookie,有的话直接使用
//if (isset($_COOKIE['cookie_jar']) &&($_COOKIE['cookie_jar'] || is_file($_COOKIE['cookie_jar']))){
// $params[CURLOPT_COOKIEFILE] = $_COOKIE['cookie_jar'] //这里判断cookie
//} else {
// $cookie_jar = tempnam($this->cookie_path, 'cookie') //产生一个cookie文件
// $params[CURLOPT_COOKIEJAR] = 斗闭$cookie_jar //写入cookie信息
// setcookie('cookie_jar', $cookie_jar) //保存cookie路径
//}
#开始发送请求,传入curl参数
curl_setopt_array($ch, $params)
$content=curl_exec($ch)
preg_match_all($this->preg,$content,$arr)
return $arr
}
/**
* 采集远程图片
* @param $img 图片路径 是一个数组
* @param $save_path 图片保存在你本地的路径
* @return bool
*/
public function get_img($img,$save_path){
for($i=0$i<count($img)$i++) {
$res=@file_get_contents($img[$i])
$img_type=substr($img[$i], strrpos($img[$i], "."))
$path=$save_path.time().rand(1,9999999).mt_rand() .$img_type
$img[$i] = $path
file_put_contents($path,$res)
}
return $img
}
//登录后采集
public function register_info(){
//采集的信息需要先登录的就要先模拟登录
//设置cookie保存路径
$ch = curl_init()
//组装用户名和密码
$info['username'] = $this->username
$info['password'] = $this->pwd
//模拟表单提交
$params[CURLOPT_URL] = $this->url //请求url地址
$params[CURLOPT_HEADER] = true //是否返回响应头信息
$params[CURLOPT_RETURNTRANSFER] = true //是否将结果返回
$params[CURLOPT_FOLLOWLOCATION] = true //是否重定向
$params[CURLOPT_USERAGENT] = 'Mozilla/5.0 (Windows NT 5.1 rv:9.0.1) Gecko/20100101 Firefox/9.0.1'
$postfields = ''
//将表单要提交的数据编程URL拼接方式
foreach ($info as $key => $value){
$postfields .= urlencode($key) . '=' . urlencode($value) . '&'
}
$params[CURLOPT_POST] = true
$params[CURLOPT_POSTFIELDS] = $postfields
//判断是否有cookie,有的话直接使用
if (isset($_COOKIE['cookie_jar'])&&($_COOKIE['cookie_jar']||is_file($_COOKIE['cookie_jar']))){
$params[CURLOPT_COOKIEFILE] = $_COOKIE['cookie_jar'] //这里判断cookie
}else{
$cookie_jar = tempnam($this->cookie_path, 'cookie') //产生一个cookie文件
$params[CURLOPT_COOKIEJAR] = $cookie_jar //写入cookie信息
setcookie('cookie_jar', $cookie_jar) //保存cookie路径
}
curl_setopt_array($ch, $params) //传入curl参数
$content = curl_exec($ch) //执行
return $content
}
}
给你简单说下原理,小偷程度野伍原粗仿理:就是比如你要获取中华新闻网站首页的新闻列表,首先你就要分析下该首页的HTML组成格式,知道组成格式后,再写正则表达式,来获取列表和链接地址,这样你就可以获取到想要的内容,把获取到的内容记录到你服务器文本文件,做为数据库使用,岩脊纤然后再用显示程序显示你获取过来的内容。思路就是这样简单,呵呵 ~~思让高路:RSS采集
相似算法
聚类
分类
(一)原理
小偷程序实际上是通过了XML中的XMLHTTP组件调用其它网站上的网页。比如新闻小偷程序,很多都是调用了sina的新闻网页,并且对其中的html进行了一些替换,同时对广告也进行了过滤。用小偷程序的优点有:无须维护网站,因为小偷程序中的数据来自其他网站,它将随着该网站的更新而更新;可以节省服务器资源,一般小偷程序就几个文件,所有网页内容都是来自其他网站。缺点有:不稳定,如果目标网站出错,程序也会出错,而且,如果目标网站进行升级维护,那么小偷程序也要进行相应修改;速度,因为是远程调用,速度和在本地服务器上读取数据比起来兆山,肯定要慢一些。
(二)事例
以下是代码片段:
下面就XMLHTTP在ASP中的应用做个简单说明
〈%
’常用函数
’1、输入url目标网页地址,返回值getHTTPPage是目标网页的html代码
function getHTTPPage(url)
dim Http
set Http=server.createobject("MSXML2.XMLHTTP")
Http.open "GET",url,false
Http.send()
if Http.readystate〈〉4 then
exit function
end if
getHTTPPage=bytesToBSTR(Http.responseBody,"GB2312")
set http=nothing
if err.number〈〉0 then err.Clear
end function
’2、转换乱玛,直接用xmlhttp调用有中文字符的网页得到的将是乱玛,可以通过adodb.stream组件进行转换
Function BytesToBstr(body,Cset)
dim objstream
set objstream = Server.CreateObject("adodb.stream")
objstream.Type = 1
objstream.Mode =3
objstream.Open
objstream.Write body
objstream.Position = 0
objstream.Type = 2
objstream.Charset = Cset
BytesToBstr = objstream.ReadText
objstream.Close
set objstream = nothing
End Function
’下面试着调用http://www.3doing.com/earticle/的html内容
Dim Url,Html
Url="http://www.3doing.com/earticle/"
Html = getHTTPPage(Url)
Response.write Html
%〉ASP小偷入门教程.....附QQ天气小偷源代码
要做一名好的小偷有点难度:P,灵活运用XMLHTTP组件,你也可以做“小偷”
这里所说的“小偷”指的是在ASP中运用XML中的XMLHTTP组件提供的强大功能,把远程网站上的数据(图片,网页及其他文件)抓取到本地,经过各种处理后显示到页面上或者存储进数据库的一类程序。你可以通过这种小偷程序,完成过去一些似乎完全不可能实现的任务,比如说把某个站的页面偷梁换柱后变成自己的页面,或者把某个站的一些数据(文章,图片)保存到本地数据库中加以利用。“小偷”的优点有:无须维族滑中护网站,因为小偷程序中的数据来自其他网站,它将随着该网站的更新而更新;可以节省大量的服务器资源,一般小偷程序就几个文件,所有网页内容都是来自其他网站。缺点在于:不稳定,如果目标网站出错,程序也会出错,而且,如果目标网站进行升级维护,那么小偷程序也要进行相应修改;速度,因为是远程调用,速度和在本地服务器上读取数据比起来,肯定要慢一些。怎么样,听起来很神奇吧?我们现在就开始来学习一些“小偷”程序的入门知识吧!
我们拿个简单点的东西来研究一下吧,QQ网站上的天气预报程序
程序演示地址:http://www.colasky.com/weather.asp
源码下载:http://www.colasky.com/weather.rar
代码如下:
以下是代码片段:
〈%
On Error Resume Next
Server.ScriptTimeOut=9999999
Function getHTTPPage(Path)
t = GetBody(Path)
getHTTPPage=BytesToBstr(t,"GB2312")
End function'首先,进行小偷程序的一些初始化设置,以上代码的作用分别是忽略掉所有非致命性错误,把小偷程序的运行超时时间设置得很长(这样不会出现运行超时的错误),转换原来默认的UTF-8编码转换成GB2312编码,否则直接用XMLHTTP组件调用有中文字符的网页得到的将是乱码。
以下是代码片段:
Function GetBody(url)
on error resume next
Set Retrieval = CreateObject("Microsoft.XMLHTTP")
With Retrieval
.Open "Get", url, False, "", ""
.Send
GetBody = .ResponseBody
End With
Set Retrieval = Nothing
End Function
’然后调用XMLHTTP组件创建一个对象并进行初始化设置。
Function BytesToBstr(body,Cset)
dim objstream
set objstream = Server.CreateObject("adodb.stream")
objstream.Type = 1
objstream.Mode =3
objstream.Open
objstream.Write body
objstream.Position = 0
objstream.Type = 2
objstream.Charset = Cset
BytesToBstr = objstream.ReadText
objstream.Close
set objstream = nothing
End Function
Function Newstring(wstr,strng)
Newstring=Instr(lcase(wstr),lcase(strng))
if Newstring〈=0 then Newstring=Len(wstr)
End Function
’处理抓取回来的数据需要调用adodb.stream组件并进行初始化设置。%〉
’以下即为页面显示部分
〈%
Dim wstr,str,url,start,over,city
’定义一些需要使用到的变量
city = Request.QueryString("id")
’程序传回的ID变量(即用户选择的城市)赋给id
url="http://appnews.qq.com/cgi-bin/news_qq_search?city="&city&""
’这里设置需要抓取的页面地址,当然你也可以直接指定某个地址而不使用变量
wstr=getHTTPPage(url) ' 以下是代码片段:
获取指定页面的全部数据
start=Newstring(wstr," ")
’这里设置需要处理的数据的头部,这个变量应视不同情况而设置,具体内容可以通过查看需要抓取的页面的源代码来确定。因为在这个程序里我们需要抓取整个页面,所以设置为页面全部抓取。注意,设置的内容必须是页面内容唯一的,不可以重复。
over=Newstring(wstr," ")
’和start相对应的就是需要处理的数据的尾部,同样的,设置的内容必须是页面中唯一的。
body=mid(wstr,start,over-start)
’设置显示页面的范围
’下面就是动用乾坤挪移大法的时候了,通过replace可以用一些字符替换掉数据中指定的字符。
body = replace(body,"skin1","天气预报")
body = replace(body,"http://appnews.qq.com/cgi-bin/news_qq_search?city","tianqi.asp?id")
’本程序中已经完成了替换的工作,如果有其他需要的话可以继续进行类似的替换 *** 作。
response.write body
%〉替换完需要修改的内容后,就可以把修改的内容显示在页面上了。至此程序结束
程序使用方法及结果:把上述代码去掉说明部分后保存为tianqi.asp,上传到支持ASP和XML的空间下,在浏览器中运行即可。你可以在在这个程序的基础上进行进一步的界面美化或者程序优化。
以上只是一些关于XMLHTTP组件的初级应用,实际上它还能实现的功能还有很多,比如说保存远程图片到本地服务器上,配合adodb.stream组件可以把获取来的数据保存进数据库。小偷的作用和使用范围都很广。但是不可以拿来做违法的事哦!
也许还有人要问了,这种“小偷”程序难道只是ASP的专利吗?非也,PHP通过fopen函数一样可以实现同样的效果,由于PHP本身的各种特点,写出来的小偷程序和ASP相比,在体积和执行效率上都有着明显的优势,但限于篇幅,这里就不一一说明了。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)