工作原理
1.爬行:搜索引擎是通过一种特定规律的软件跟踪网页的链接,从一个链接爬到另外一个链接,像蜘蛛在蜘蛛网上爬行一样,所以被称为“蜘蛛”也被称为“机器人”。搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容。
2.抓取存储:搜索引擎是通过蜘蛛跟踪链接爬行到网页,并将爬行的数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。
3.预处理:搜索引擎将蜘蛛抓取回来的页面,进行各种步骤的预处理。
搜索引擎是根据一定的策略,运用特定的计算机程序从互联网上搜集信息,在对信息组织和处理后,为用户提供检索服务,将用户检索的信息展现给用户的系统。搜索引擎的作用:1.为网站带来流量,(网名、用户、访问量)2.让网民快速得到信息。一句话概括:搜集信息 + 组织和信息 +展示用户欢迎分享,转载请注明来源:内存溢出
评论列表(0条)