讯雷搜索到的资源问题

讯雷搜索到的资源问题,第1张

分类: 游戏 >> 单机游戏
问题描述:

有个问题我一直不懂,比如说:我在别人的网站下载一个文件,用的迅雷,搜索到两个资源,下载对方的一个文件,为什么会是两个资源 听人说对方服务器是用一种软件,把文件分割开就成两个资源了,分割多少块就多少资源,是这样的吗用什么软件能做到这样

我是菜鸟,不太懂,懂的大哥们教教我,小弟先谢谢了

解析:

迅雷现在很流行,风头早已超过了flashget和ants等等多线程下载工具。大多数情况下,它的下载速度确实比较快,具体为什么会有比较快的下载速度呢。下面将做一些探讨。

迅雷声称自己的是P2SP的下载技术。P当然是用户peer,SP是资源的提供商service provider下面是迅雷官方给出的介绍:
技术特点

迅雷使用的多资源超线程技术基于网格原理,能够将网络上存在的服务器和计算机资源进行有效的整合,构成独特的迅雷网络,通过迅雷网络各种数据文件能够以最快的速度进行传递。

多资源超线程技术还具有互联网下载负载均衡功能,在不降低用户体验的前提下,迅雷网络可以对服务器资源进行均衡,有效降低了服务器负载。

功能列表

全新的多资源超线程技术,显著提升下载速度;

功能强大的任务管理功能,可以选择不同的任务管理模式;

智能磁盘缓存技术,有效防止了高速下载时对硬盘的损伤;

智能的信息提示系统,根据用户的 *** 作提供相关的提示和 *** 作建议;

独有的错误诊断功能,帮助用户解决下载失败的问题;

病毒防护功能,可以和杀毒软件配合保证下载文件的安全性;

自动检测新版本,提示用户及时升级;

提供多种皮肤,用户可以根据自己的喜好进行选择;

为了说明迅雷的工作原理,再给一个迅雷的官方工具给大家,以更清晰的讨论迅雷的下载原理。在迅雷的官方论坛里面有个顶置帖子:
bbsxunlei/phpwind/readphptid=69234&fpage=1,里面有一个测试工具,是测试客户端与迅雷的官方服务器的连接速度。

图中可以看出,使用到了三台服务器:一台是资源服务器,两台注册服务器(tcp和udp)

帖子中还给出了一个调查:

投票主题:关于端口被封的调查!

3076端口被封(将找不到多资源)56 票

5200端口被封(将无法进行雷区注册)67 票

6200端口被封(会隔一段时间就会掉下雷区,需要重新登陆)70 票

由此可以看出,资源服务器负责提供下载的资源情况,使用3076端口。这台资源服务器到底提供的是什么资源呢?在迅雷5中,可以查看当前下载的文件连接的资源是哪些。有服务器地址也有单独的peer。当然很明显,peer的连接没有服务器连接稳定。

原理分析

当用户需要下载资源时,例如要下载“abc/fileexe”这个文件,那么一方面直接向“abc”这个服务器发送一个>可以选择做网站或上一些网站平台开通自己的网页店铺,一段时间后百度收录通过了就可以搜索出来了。
搜索引擎,通常指的是收集了因特网上几千万到几十亿个网页并对网页中的每一个词(即关键词)进行索引,建立索引数据库的全文搜索引擎。当用户查找某个关键词的时候,所有在页面内容中包含了该关键词的网页都将作为搜索结果被搜出来。在经过复杂的算法进行排序后,这些结果将按照与搜索关键词的相关度高低,依次排列
工作原理
爬行和抓取
搜索引擎派出一个能够在网上发现新网页并抓文件的程序,这个程序通常称之为蜘蛛(Spider)。搜索引擎从已知的数据库出发,就像正常用户的浏览器一样访问这些网页并抓取文件。搜索引擎通过这些爬虫去爬互联网上的外链,从这个网站爬到另一个网站,去跟踪网页中的链接,访问更多的网页,这个过程就叫爬行。这些新的网址会被存入数据库等待搜索。所以跟踪网页链接是搜索引擎蜘蛛(Spider)发现新网址的最基本的方法,所以反向链接成为搜索引擎优化的最基本因素之一。搜索引擎抓取的页面文件与用户浏览器得到的完全一样,抓取的文件存入数据库。
建立索引
蜘蛛抓取的页面文件分解、分析,并以巨大表格的形式存入数据库,这个过程即是索引(index)在索引数据库中,网页文字内容,关键词出现的位置、字体、颜色、加粗、斜体等相关信息都有相应记录。
搜索词处理
用户在搜索引擎界面输入关键词,单击"搜索"按钮后,搜索引擎程序即对搜索词进行处理,如中文特有的分词处理,去除停止词,判断是否需要启动整合搜索,判断是否有拼写错误或错别字等情况。搜索词的处理必须十分快速。

新网站影响搜索排名的因素有八大因素:

服务器因素。

网站内容因素其期稳定的好排名呢

title和meta标签设计。

网页抖非版细节因素。

域名和URL设计认真的去做好。

网站链接构架因素。

关键词的密度和布局。

反向链接因素。

怎么才能增加网站的搜索量:

title的重要性:Title是整个html在搜索引擎搜索结果中返回的第一要素,是最为核心的关键字词。

在HTML中MetaDescription中的使用,Description:为搜索引擎提供参考,网页的描述信息;搜索引擎采纳后,作为搜索结果中的页面摘要显示,主流搜索引擎对内容字节在400字节以内最佳。

的关键词优化:HTML标签中,对于img标签有帮助的alt属性,这个属性可以告诉浏览器,当无法显示的时候,用alt属性中的值来替代,同样这个属性搜索引擎也看到。

关键词在页面URL中的使用:url中的关键词对搜索引擎排名中的重要作用,但是在域名中包含关键字比在目录中包含关键字拥有更大的权重,这也促使很多网站使用大量的二级域名。

网站的结构应具有层次,搜索引擎希望站点有更简单的结构,首页除重要的内容、职位、专题及文章外,不链向具体内容页面;首页链向所有栏目;栏目及专题页面除首页外,必须链向本栏目或者专题的所有页面。有些链向作弊以及质量差的页面,会受到搜索引擎的连带处罚;同样,链向高质量、高相关性的页面会受到搜索引擎的喜欢。

第一点:我建议在做SEO的时候首先通过Google网站管理员工具提交Sitemap,不知道大家有没有用过这个方法,但是这个方法真的很有用,因为它
可以使你的网站内容完全被收录,当然包括那些隐藏比较深的页面。其实这就是网站和搜索引擎对话的一种方式。在这里我推荐大家使用一款叫做Google
XML Sitemaps的插件。在 Google Webmaster Tools 注册一个账号,那里就会提示你怎么做的。
第二点:优化 title 页标题,不要把 Blog 名称显示在文章标题的前面,因为在搜索结果中,页标题会高亮显示,把 Blog 名称放在前面,会导致因为长度过长而被隐藏,同时不利于访问者在第一时间关注到文章本身的标题。我们可以替换源代码来解决这个问题。
 
 第三点:从SEO的角度来讲robotstxt文件是一定要设置的,这是因为:采用robotstxt文件可以屏蔽掉次要的、URL重写优化前的链
接,以及屏蔽一些没有关键词的页面。robotstxt 文件必须放在网站的根目录,能通过 /robotstxt
可以成功访问到,则说明本站的放置正确。如 robotstxt 文件放在子目录,那么搜索引擎不能爬取到,也就不会起任何作用。
第五点:我们需要大量的反向链接,因为大量的链接指向你的 Blog 可以提高你的 PageRank,并且能让你的 Blog 在搜索引结果中更靠前。
第七点:大家都知道SEO技巧很多,但是再多的技巧都不如写原创文章。搜索引擎非常喜欢原创文章。如果在搜索结果中,你的文章排在第三页后,那么也不会给你的 Blog 带来多少实质的影响了。文章内容必须简洁有力,不要长篇大论。
第八点:垃圾留言会影响 Blog 在搜索引擎中的表现。我们需要安装一个自动过滤垃圾留言评论的的插件,推荐使用 Akismet。
最后一点:坚持每天更新。

1网站及页面权重。

这个肯定是首要的了,权重高、资格老、有权威的网站蜘蛛是肯定特殊对待的,这样的网站抓取的频率非常高,而且大家知道搜索引擎蜘蛛为了保证高效,对于网站不是所有页面都会抓取的,而网站权重越高被爬行的深度也会比较高,相应能被抓取的页面也会变多,这样能被收录的页面也会变多。

2网站服务器。

网站服务器是网站的基石,网站服务器如果长时间打不开,那么这相当与你闭门谢客,蜘蛛想来也来不了。百度蜘蛛也是网站的一个访客,如果你服务器不稳定或是比较卡,蜘蛛每次来抓取都比较艰难,并且有的时候一个页面只能抓取到一部分,这样久而久之,百度蜘蛛的体验越来越差,对你网站的评分也会越来越低,自然会影响对你网站的抓取,所以选择空间服务器一定要舍得,没有一个好的地基,再好的房子也会跨。

3网站的更新频率。

蜘蛛每次爬行都会把页面数据存储起来。如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,蜘蛛也就没有必要经常抓取了。页面内容经常更新,蜘蛛就会更加频繁的访问页面,但是蜘蛛不是你一个人的,不可能就在这蹲着等你更新,所以我们要主动向蜘蛛示好,有规律的进行文章更新,这样蜘蛛就会根据你的规律有效的过来抓取,不仅让你的更新文章能更快的抓取到,而且也不会造成蜘蛛经常性的白跑一趟。

4文章的原创性。

优质的原创内容对于百度蜘蛛的诱惑力是非常巨大的,蜘蛛存在的目的就是寻找新东西,所以网站更新的文章不要采集、也不要每天都是转载,我们需要给蜘蛛真正有价值的原创内容,蜘蛛能得到喜欢的,自然会对你的网站产生好感,经常性的过来觅食。

5扁平化网站结构。

蜘蛛抓取也是有自己的线路的,在之前你就给他铺好路,网站结构不要过于复杂,链接层次不要太深,如果链接层次太深,后面的页面很难被蜘蛛抓取到。

6网站程序。

在网站程序之中,有很多程序可以制造出大量的重复页面,这个页面一般都是通过参数来实现的,当一个页面对应了很多URL的时候,就会造成网站内容重复,可能造成网站被降权,这样就会严重影响到蜘蛛的抓取,所以程序上一定要保证一个页面只有一个URL,如果已经产生,尽量通过301重定向、Canonical标签或者robots进行处理,保证只有一个标准URL被蜘蛛抓取。

7外链建设。

大家都知道,外链可以为网站引来蜘蛛,特别是在新站的时候,网站不是很成熟,蜘蛛来访较少,外链可以增加网站页面在蜘蛛面前的曝光度,防止蜘蛛找不到页面。在外链建设过程中需要注意外链的质量,别为了省事做一些没用的东西,百度现在对于外链的管理相信大家都知道,我就不多说了,不要好心办坏事了。

8内链建设。

蜘蛛的爬行是跟着链接走的,所以内链的合理优化可以要蜘蛛抓取到更多的页面,促进网站的收录。内链建设过程中要给用户合理推荐,除了在文章中增加锚文本之外,可以设置,热门文章,更多喜欢之类的栏目,这是很多网站都在利用的,可以让蜘蛛抓取更大范围的页面。

9首页推荐。

首页是蜘蛛来访次数最多的页面,也是网站权重最高的页面,可以在首页设置更新版块,这样不仅能让首页更新起来,促进蜘蛛的来访频率,而且可以促进更新页的抓取收录。同理在栏目页也可以进行此 *** 作。

10检查死链,设置404页面

搜索引擎蜘蛛是通过链接来爬行搜索,如果太多链接无法到达,不但收录页面数量会减少,而且你的网站在搜索引擎中的权重会大大降低。蜘蛛在遇见死链就像进了死胡同,又得折返重新来过,大大降低蜘蛛在网站的抓取效率,所以一定要定期排查网站的死链,向搜索引擎提交,同时要做好网站的404页面,告诉搜索引擎错误页面。

11检查robots文件

很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗你都不让别人进门了,百度是怎么收录你的网页所以有必要时常去检查一下网站robots文件是否正常。

12建设网站地图。

搜索引擎蜘蛛非常喜欢网站地图,网站地图是一个网站所有链接的容器。很多网站的链接层次比较深,蜘蛛很难抓取到,网站地图可以方便搜索引擎蜘蛛抓取网站页面,通过抓取网站页面,清晰了解网站的架构,所以建设一个网站地图不仅提高抓取率还能获得蜘蛛好感。

13主动提交

每次更新完页面,主动把内容向搜索引擎提交一下也是一个不错的办法,只不过不要没收录就一直去提交,提交一次就够了,收不收录是搜索引擎的事,提交不代表就要收录。

14监测蜘蛛的爬行。

利用网站日志监测蜘蛛正在抓取哪些页面、抓取过哪些页面,还可以利用站长工具对蜘蛛的爬行速度进行查看,合理分配资源,以达到更高的抓取速度和勾引更多的蜘蛛。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10646461.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存