蜘蛛,也叫爬虫,是将互联网的信息,抓取并存储的一种
技术实现。
搜索引擎的信息收录,很多不明所以的人会有很多误解,以为是付费收录,或者有什么其他特殊的提交技巧,其实并不是,搜索引擎通过互联网一些公开知名的网站,抓取内容,并分析其中的链接,然后有选择的抓取链接里的内容,然后再分析其中的链接,以此类推,通过有限的入口,基于彼此链接,形成强大的信息抓取能力。
有些搜索引擎本身也有链接提交入口,但基本上,不是主要的收录入口,不过作为创业者,建议了解一下相关信息。
百度,google都有站长平台和管理后台,这里很多内容是需要非常非常认真的对待的。反过来说,在这样的原理下,一个网站,只有被其他网站所链接,才有机会被搜索引擎抓取。
以
营销型网站建设为例,如果这个网站没有外部链接,或者外部链接在搜索引擎中被认为是垃圾或无效链接,那么搜索引擎可能就不抓取他的页面。
分析和判断搜索引擎是否抓取了你的页面,或者什么时候抓取你的页面,只能通过
服务器上的访问日志来查询,如果是cdn就比较麻烦。而基于网站嵌入代码的方式,不论是cnzz,百度统计,还是googleanalytics,都无法获得蜘蛛抓取的信息,因为这些信息不会触发这些代码的执行。
但关于蜘蛛的话题,并不只基于链接抓取这么简单,延伸来说
第一,网站拥有者可以选择是否允许蜘蛛抓取,有一个robots.txt的文件是来控制这个的。
第二,最早抓取是基于网站彼此的链接为入口,但实际上,并不能肯定的说,有可能存在其他抓取入口,
第三,无法被抓取的信息,有些网站的内容链接,用一些javascript特殊效果完成,比如浮动的菜单等等,这种连接,有可能搜索引擎的蜘蛛程序不识别,当然,我只是说有可能,现在搜索引擎比以前聪明,十多年前很多特效链接是不识别的,现在会好一些。需要登录,需要注册才能访问的页面,蜘蛛是无法进入的,也就是无法收录。
很多动态页面是一个脚本程序带参数体现的,但蜘蛛发现同一个脚本有大量参数的网页,有时候会给该网页的价值评估带来困扰,蜘蛛可能会认为这个网页是重复页面,而拒绝收录。还是那句话,随着技术的发展,蜘蛛对动态脚本的参数识别度有了很大进步,现在基本上可以不用考虑这个问题。
但这个催生了一个技术,叫做伪静态化,通过对web服务端做配置,让用户访问的页面,url格式看上去是一个静态页,其实后面是一个正则匹配,实际执行的是一个动态脚本。