http下载工作原理是什么啊

http下载工作原理是什么啊,第1张

当我们想浏览一个网站的时候,只要在浏览器的地址栏里输入网站的地址就可以了,例如:,但是在浏览器的地址栏里面出现的却是: >

web的工作原理:

1、用户在浏览器中输入要访问的web站点地址或在已打开的站点点击超链接。

2、由DNS进行域名解析,找到服务器的IP地址,向该地址指向的web服务器发出请求。

3、web服务器根据请求将URL地址转换为页面所在的服务器上的文件全名,查找相应的文件。

4、若URL指向静态文件,则服务器将文件通过>

如果web服务器所运行程序包含对数据库的访问,服务器会将查询指令发送给数据库服务器,对数据库执行查询 *** 作,查询结果由数据库返回给web服务器,再由web服务器将结果潜入页面,并以html格式发送给浏览器。

5、浏览器解释html文档,在客户端屏幕上展示结果。

扩展资料

web的特点

1、图形化

Web 非常流行的一个很重要的原因就在于它可以在一页上同时显示色彩丰富的图形和文本的性能。在Web之前Internet上的信息只有文本形式。Web可以提供将图形、音频、视频信息集合于一体的特性。

2、与平台无关

无论用户的系统平台是什么,你都可以通过Internet访问>

3、分布式的

大量的图形、音频和视频信息会占用相当大的磁盘空间,我们甚至无法预知信息的多少。对于Web没有必要把所有信息都放在一起,信息可以放在不同的站点上,只需要在浏览器中指明这个站点就可以了。

4、动态的

由于各Web站点的信息包含站点本身的信息,信息的提供者可以经常对站上的信息进行更新。如某个协议的发展状况,公司的广告等等。一般各信息站点都尽量保证信息的时间性。所以Web站点上的信息是动态的、经常更新的,这一点是由信息的提供者保证的。

5、交互的

Web的交互性首先表现在它的超链接上,用户的浏览顺序和所到站点完全由他自己决定。另外通过FORM的形式可以从服务器方获得动态的信息。用户通过填写FORM可以向服务器提交请求,服务器可以根据用户的请求返回相应信息。


如何理解>

>

什么是>

爬虫首要便是要抓取终端服务器的网页,也就是抓取到网页的源代码,源代码包中抓取到实用的信息,就将实用的源代码获取,提取每日任务中所需的信息。

ip将抓取到实用的信息回到到客户端存储,随后再返回去,不断频繁的访问获得信息直到完成任务。因此ip便是负责带着每日任务寻找有价值的信息,随后将抓取到的有价值的信息数据负责带回(传输)到客户端,直到完成任务。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12688660.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-27
下一篇 2023-05-27

发表评论

登录后才能评论

评论列表(0条)

保存