网站建设与优化探秘 网站改版影响究竟有多大
程序员文章站
2022-06-19 23:48:48
网站建设与优化探秘 网站改版影响究竟有多大,网站想要改版的朋友可以看下。... 11-08-10...
一:哪些因素影响改版权重
根据百度lee回答而言,网站结构首当其冲的是影响网站改版效果的最大因素。众所周知,网站改版主要有两方面“a标题、优化标签,b、结构模板”,然而很多站长在网站改版更换模板中对原有url结构进行变更或删除,却茫然不知,如此做法是对蜘蛛影响最大的不利因素。如原有a地址为“xxx.com/a /1.html”,为了更有益于优化效果,则修改为“xxx.com/seo-youhua/1.html”。如此一来,违背搜索引擎改版规则,被降权也就在所难免了。
另外一点,为了优化网站而进行“标题、关键字、描述”的改版,对此大多 seoer认为,一旦改动浮动较大,直接关乎网站排名。百度lee回答站长问中同样表示:“title极重要的内容,大幅修改只会带来大幅波动”,对于描述标签则为“我们鼓励大家通过description来撰写网站的简介,只是过于频繁的修改,可能不会即时反馈在网页中。”而keyword标签,大多 seoer认为,在网页优化中所处位置并不是很重要。
二:如何消除改版的负面影响
在网站改版中,将以上几点影响较大的因素掌握好,加上适度优化,改版还会被降权吗?所谓的改版降权也完全由改版不当所引起。但为了消除“观察期”,或改版后所带来的短暂影响,还是有必要在改版中做足优化的。
a:robots.txt设置,从搜索引擎爬行的第一个君子协议说起。对于robotst.txt的设置,在细节上往往更易突出优化效果,其得当的设置不仅可以保护网站的安全隐私,甚至可直接提升优化效果。利用robots.txt屏蔽无用文件目录,如:缓存目录(与生成文件相同)、图片目录(收录无用)、模板目录(与生成文件高度重复,且若采用大众模板,模板高度重复)、静态模式下的动态文件(大部分的程序都支持静态生成,同时也支持动态目录,由此搜索引擎进行索引后,索引一个内容很可能得到多个url地址。笼统的来说,一般常用disallow:/*?*来进行屏蔽。但如此一来,一些网页tag标签也就被屏蔽了,针对不同情况,站长更应针对不同的程序来进行屏蔽。若无tag标签,一般屏蔽是最好的优化方式。)
b:结构规范化,在网站内容调用中,不少站长喜欢调用“随机文章”。如此一来,虽大大引导了蜘蛛的爬行时间和内容的面,但就笔者个人而言并不推崇如此做法,搜索引擎不太喜欢如此调用方法。另外在长期的优化过程中,二进制同样发现了一个问题,结构设计不规范。就拿xml地图来说,有些站长并没有按照搜索引擎要求进行地图规范,而是自行对页面“设计”出一个大量网址的地图,甚至存在页面导航等信息。而后还兴高采烈的向搜索引擎进行xml地图的提交,如此一来结果怎么样呢?轻则无果,重则亦可能导致降权的直接产生。
c:内外协调优化,在网站优化过程中一个经久不衰的优化方法“内容、外链”,始终都是博得蜘蛛青睐的最有效方法。站长常说,外链难、内容难,但却是如此吗?想在行业竞争中博得一片发展空间,不下些功夫去付出又如何可行呢?拿二进制的博客来说,可能是常常写文章的原因吧,在一个月中连续经过4次大幅度调整改版,也并没有出现排名上的大浮动波动。而在外链上,每天也有几十个自然外链,原因是得到带版权的转载。所以,站长在网站改版过程中或过程后,进行内容与外链的更新是很有必要的。不需要太多,一篇2-3篇足以。不要试图去搞神马伪原创,那些东西虽然有很多人在做,但真正用心来经营网站的人,又有多少人如此去做呢?
根据百度lee回答而言,网站结构首当其冲的是影响网站改版效果的最大因素。众所周知,网站改版主要有两方面“a标题、优化标签,b、结构模板”,然而很多站长在网站改版更换模板中对原有url结构进行变更或删除,却茫然不知,如此做法是对蜘蛛影响最大的不利因素。如原有a地址为“xxx.com/a /1.html”,为了更有益于优化效果,则修改为“xxx.com/seo-youhua/1.html”。如此一来,违背搜索引擎改版规则,被降权也就在所难免了。
另外一点,为了优化网站而进行“标题、关键字、描述”的改版,对此大多 seoer认为,一旦改动浮动较大,直接关乎网站排名。百度lee回答站长问中同样表示:“title极重要的内容,大幅修改只会带来大幅波动”,对于描述标签则为“我们鼓励大家通过description来撰写网站的简介,只是过于频繁的修改,可能不会即时反馈在网页中。”而keyword标签,大多 seoer认为,在网页优化中所处位置并不是很重要。
二:如何消除改版的负面影响
在网站改版中,将以上几点影响较大的因素掌握好,加上适度优化,改版还会被降权吗?所谓的改版降权也完全由改版不当所引起。但为了消除“观察期”,或改版后所带来的短暂影响,还是有必要在改版中做足优化的。
a:robots.txt设置,从搜索引擎爬行的第一个君子协议说起。对于robotst.txt的设置,在细节上往往更易突出优化效果,其得当的设置不仅可以保护网站的安全隐私,甚至可直接提升优化效果。利用robots.txt屏蔽无用文件目录,如:缓存目录(与生成文件相同)、图片目录(收录无用)、模板目录(与生成文件高度重复,且若采用大众模板,模板高度重复)、静态模式下的动态文件(大部分的程序都支持静态生成,同时也支持动态目录,由此搜索引擎进行索引后,索引一个内容很可能得到多个url地址。笼统的来说,一般常用disallow:/*?*来进行屏蔽。但如此一来,一些网页tag标签也就被屏蔽了,针对不同情况,站长更应针对不同的程序来进行屏蔽。若无tag标签,一般屏蔽是最好的优化方式。)
b:结构规范化,在网站内容调用中,不少站长喜欢调用“随机文章”。如此一来,虽大大引导了蜘蛛的爬行时间和内容的面,但就笔者个人而言并不推崇如此做法,搜索引擎不太喜欢如此调用方法。另外在长期的优化过程中,二进制同样发现了一个问题,结构设计不规范。就拿xml地图来说,有些站长并没有按照搜索引擎要求进行地图规范,而是自行对页面“设计”出一个大量网址的地图,甚至存在页面导航等信息。而后还兴高采烈的向搜索引擎进行xml地图的提交,如此一来结果怎么样呢?轻则无果,重则亦可能导致降权的直接产生。
c:内外协调优化,在网站优化过程中一个经久不衰的优化方法“内容、外链”,始终都是博得蜘蛛青睐的最有效方法。站长常说,外链难、内容难,但却是如此吗?想在行业竞争中博得一片发展空间,不下些功夫去付出又如何可行呢?拿二进制的博客来说,可能是常常写文章的原因吧,在一个月中连续经过4次大幅度调整改版,也并没有出现排名上的大浮动波动。而在外链上,每天也有几十个自然外链,原因是得到带版权的转载。所以,站长在网站改版过程中或过程后,进行内容与外链的更新是很有必要的。不需要太多,一篇2-3篇足以。不要试图去搞神马伪原创,那些东西虽然有很多人在做,但真正用心来经营网站的人,又有多少人如此去做呢?
上一篇: 白芷的功效和作用