百度蜘蛛爬行与抓取的原理
近期有朋友一直在对网站的收录方面有着很大的疑问,甚至有三年老站不收录的,对于这一现象,我个人倒是认为,想要搜索引擎良好的收录你的网站和文章,就必须要了解百度蜘蛛的爬行原理和百度蜘蛛的抓取原理。我们能够从根本的原因分析出蜘蛛如何爬取如何抓取,那做好收录是指日可待的。
蜘蛛是先爬行还是先抓取?
当然可以肯定的回答,蜘蛛是先爬行然后抓取,如果没有蜘蛛来到我们网站进行爬行,那么更别说抓取我们的网站快照了,那么百度指数爬行的首要条件是什么?这样可能很多朋友都非常清楚,爬行首要条件是看robots文件。这不是蜘蛛想去看robots文件,而是根据国际互联网界通行的道德规范,百度蜘蛛必须遵守robots的原则。1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;2、网站有义务保护其使用者的个人信息和隐私不被侵犯。同时我们还可以利用robots来做好推荐网站地图,这里我看到太多朋友把蜘蛛网站地图做成链接到文章页面或者首页,个人建议你直接把网站地图写到robots文件即可。搜索引擎首要抓取robots,同时抓取robots里面的网站地图,而网站地图里面有你整站的链接,这样可以良好的发展收录这一块。
搜索引擎是如何抓取?
搜索引擎会根据网站的robots文件对其网站页面进行抓取,同时百度蜘蛛也会进入首页根据首页的链接进行抓取,这就是一个网站内链推荐抓取相关的作用。根据首页的内链推荐进行爬取,首页的导航链接结构引导蜘蛛爬取栏目页,首页的文章列表页可以引导百度蜘蛛的爬取,与此同时搜索引擎根据网站地图可直接爬取内容页,我们在内容页文章页面做好内链优化,可直接引导搜索引擎爬取下一个文章页面。
外链引导搜索引擎爬取
没有特殊要求的情况下,我的外链均是直接链接到内页,因为我首页没有关键词,我也没有打算用首页去优化某一个词。所以我在seo外链建设上面,是直接根据关键词的需求,推荐到内页,而不是首页。当然如果你的站点是依靠首页在优化某一个难度关键词的时候,你可以试着在建设外链的时候做首页链接。
搜索引擎抓取原理
爬行一个页面后,搜索引擎会下载我们的网站,下载的前提是不会下载图片、flash、视频等,仅下载文字,而我们之所以点击快照可以看到图片的原因是百度下载的页面图片是调用我们网站现有的图片,如遇到网站无法打开的情况,我们点击快照是无法看到图片、flash等。
如果查看搜索引擎是否爬行和抓取了我们的网站其实现在很多cms均有网站日志的插件,同时我们也可以在服务器蜘蛛日志分析里面查看我们的网站是否被搜索引擎爬行过。蜘蛛日志我在这里不详细的介绍,我的博客关于蜘蛛日志的文章也蛮多的,同时这里我给出一个肯定的答案,那就是只要搜索引擎爬取了你的网站,就一定下载了你的网站。但是未必代表就收录了你的站点。
爬行抓取和收录什么关系
网站被搜索引擎收录的前提是搜索引擎来到你网站顺利爬取过,搜索引擎顺利的抓取过网站之后会对其站点进行下载,只是进行数据对比,这也就是常说筛选,对其下载的页面分析,当对比的过程中发现网站的原创度偏小或者内容质量存在问题,那么在释放的过程相对比较困难。这里就是很多seoer说的,网站原创的重要性。可能你抄袭的是未收录的文章,但是不代表搜索引擎没有抓取其站点,同时也不代表搜索引擎没有对其页面建立索引。