补充: 不管是虚拟还是自己的服务器上传文件都是用这样的方式打开的,除非你的网站本来和服务器连接,并且有后台,这样你就可以直接在后台修改,查看服务器的数据库是不能直接查看的,除非你安装了专门查看的工具,其实就是图像化的管理工具,主要视数据库的类型来定的
服务器,也称伺服器是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力,服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
服务器软件的定义如前面所述,服务器软件工作在客户端-服务器(C/S)或浏览器-服务器(B/S)的方式,有很多形式的服务器,常用的包括:
文件服务器(File Server)
数据库服务器(Database Server)
邮件服务器(Mail Server)
网页服务器(Web Server)
FTP服务器(FTP Server)
域名服务器(DNS Server)
应用程序服务器(AP Server)
代理服务器(Proxy Server)
电脑名称转换服务器
Web服务器日志
市面上各家网页服务器自发展初随时都会纪录其所有的交易于一个日志档里头。这种特性不久就被网管意识到可以透过软件读取它,以提供网页流行度的相关资料;从而造成网站日志分析软件的兴起。
90年代早期,网站统计资料仅是简单的客户端对网站服务器请求(或者访问)的记数值。一开始这是挺合理的方法,因为每个网站通常只有单一个HTML档案。然而,随着图形进入HTML标准,以及网站扩增至多重HTML档案,这种记数变得没什么帮助。最早真正的商用日志分析器于1994年由IPRO发行。
90年代中期,两种计量单位被引入以更准确的估计人类于网站服务器上的活动总数。它们是网页点阅数(PageViews)以及访问量(Visits,或者节区(Session))。一次的网页点阅数定义为客户端对服务器提出某单一网页读取请求,恰好为对某一图形请求的相反;而一次的访问量则定义为来自于某一唯一已识别的客户端对服务器一连串请求直到闲置一段时间——通常为30分钟——为止。网页点阅数与访问量仍旧在报告上十分常见,不过现今它们被当作是过于简单的量度。
90年代末期,随着网络蜘蛛与机器人问世,伴随着大型企业以及互联网服务提供商使用代理服务器与动态指定IP地址,鉴别某网站单一访客变得更困难。对此,日志分析器以指定Cookie作为追踪访问量的对策,并忽略已知的蜘蛛机器人的读取请求。
网页快取的广泛使用也造成日志分析上的问题。如果某人再度造访某页,第二次的读取请求通常由网页浏览器快取达成,因此网站服务器端不会接受到此请求。这意味着该访问者浏览过该站的“足迹”丢失。快取与否可于设定网站服务器时克服,不过这可能导致降低该网站的效能。
JavaScript标记
由于对日志档案分析于快取存在下准确性的关注,以及渴望能实现把网站分析当作是种外包的服务,导致第二种资料收集方法:加网页标签,或称网虫(Webbug)的出现。
90年代中期,网页计数器已经普及——这些计数器以包含在网页中的图像出现,显示多少次该图像被读取过。而图像内容就是显示大约该页被拜访次数的数目。90年代晚期,这种做法延伸至包括一个微小不可见图像,而非可见的。并且,透过JavaScript,图像请求的某些关于网页和访客的讯息被传递到第三方服务器方。这些资料随后被网站分析公司处理并产生详细的统计资料。
网站分析服务也代管指定cookie到使用者的过程。这种方式可以鉴别各个唯一访客初次以及随后的拜访。
随着Ajax为主解决方案普及,一种利用不可见图像的替代方案实现了从读取页面“回电”服务器的机制。在这个情况下,当某网页被网页浏览器读取,该页某部分Ajax代码将致电回服务器并递送有关用户端的资讯,随后被送到网站分析公司做汇整。这在某些方面还是有漏洞,因为某些浏览器限定哪种Xml>
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)