易百教程

17、搜索引擎的蜘蛛是什么?

许多搜索引擎使用称为蜘蛛的程序来索引网站。蜘蛛也被称为爬虫或机器人。 它们充当自动日期搜索工具,访问每个站点以查找新的或更新的网页和链接。 这个过程称为网络爬取。 蜘蛛跟踪超链接并为搜索引擎数据库收集文本和元信息。 在中继到搜索引擎的服务器之前,他们会收集尽可能多的信息。

蜘蛛还可以对被索引的内容进行评级,以帮助搜索引擎确定搜索的相关性级别。 它们被称为蜘蛛,因为它们同时访问许多站点,即它们的腿一直跨越网络的一大片区域。 所有的搜索引擎都使用蜘蛛来修改和建立他们的索引。