大型老站的SEO分析及改进方案 | 网站优化
当前位置:厦门seo » 网站优化 » 大型老站的SEO分析及改进方案

大型老站的SEO分析及改进方案

日期: 2013-09-27   标签:

虽然现在SEO已经非常普及了,但还是有些老站对SEO没有引起足够的重视,导致这些老站依然存在较大的SEO问题。下面以一个成立10多年的老站举例,按照SEO方法对其进行分析,然后得出改进方案。
一、SEO分析  
1、基本的SEO情况记录

大型老站的SEO分析及改进方案1

 从以上可以看出该老站成立时间较长,流量也比较大,属于国内前100名以内且比较知名的网站。
2、各二级域名分别记录

大型老站的SEO分析及改进方案2
1)、从上表可以看出,该老站百度权重为8PR值为8,被收录数和外链数量都非常高,网站总体权重比较高。
2)、 www主域虽然被百度收录了3800条,但百度来路IP数量却非常高,占到了总量的71%以上,而查看关键词绝大部分是品牌词搜索量,也就是说该老站知名度非常高,品牌词搜索量日均在11万以上,可能有15-19万。但非品牌词的百度来路IP才占20%多,优化空间非常大。
3)、 二 级域名1的百度收录数量非常大,占到总量的80%,但百度来路IP才占总量的5.5%,证明此域名的优化空间非常大。而且此域名的百度站长平台外链数量达 到379万之巨,占到总量的83.9%,证明此老站大部分的内容都在此二级域名下,权重也比较高,所以后面应该重点研究。
4) 、二级域名2的百度收录数量占总量的3.87%,百度来路IP数量占总量的4%,按照此比例基本达标。
5)、 二级域名5是搜索页面的二级域名,虽然百度收录数量占到总量的1.7%,但百度来路IP仅占0.07%,不成比例,有很大的提升空间。
6)、 此老站的二级域名数量太多,爱站记录的数量有260个以上,个人觉得可能会有800多,这里只记录了几个主要的二级域名,在这里我们只重点分析这几个。
3、网站源代码分析
1)、首先分析网站的robots.txt文件,看看robots里有没有什么错误。
检查的时候需要用浏览器模拟百度蜘蛛来访问robots.txt文件,可以Firefox安装User Agent 
Switcher插件来实现,以免技术人员对robots.txt做过什么针对蜘蛛的设置而不能被发现。经过检查发现此老站只是对几个主要的二级域名设置 了robots.txt,而且还直接写了Sitemapurl,都知道百度不会去读robots.txt里的sitemap文件,所以基本没用。所幸的 是没有什么大错误。
2)、检测页面是否被压缩及http头设置是否正确
如果网页没有被压缩,或http头写的不正确很有可能导致打开速度慢、拒绝蜘蛛爬行、编码不正确等等问题。所以需要用网页GZIP压缩检测工具检测一下各种类型的页面,一般一种类型的页面都是同一个模板,所以不必检测所有页面,也检测不过来,不同的二级域名不同类型的页面检测一个就行了。包括首页、二级域名首页、栏目页、频道页、分类页、标签页、详情页、评论页、搜索页、翻页等等等等。检测截图如下:

大型老站的SEO分析及改进方案3  
检查过程中发现,一般页面都启用了压缩,且Header信息基本没有问题。但在Cache-Control一项里需要说一下的就是,如果值为no-cache, 在浏览器打开页面的时候也不会每次都访
问服务器,一般只访问本地的缓存,这跟浏览器本身的功能是相关的,为了加快速度,很多浏览器会忽视Header的一 些信息,所以这里不用纠结。通过X-Cache一项可以证明此老站是做了CDN设置的,而且缓存已经过期,但不影响蜘蛛爬行。
在检测的时候不能只依靠工具,还得打开各种页面的源代码来亲自察看一下有没有明显的错误。在检测二级域名1下面的详细页面的源代码的时候发现一个比较大 的错误,代码头部就鲜明地写着“<!DOCTYPEHTML><html lang="en-US"><head>”,可能很多人知道lang=en-US就是告诉蜘蛛此页面是英文美国网站,英文网站在百度中 文搜索肯定不会有好的排名。这也就可以解释为什么前面分析的二级域名1的百度收录数量非常大,占到总量的80%,但百度来路IP才占总量的5.5%”, 先暂时把这个记下来。
看源代码的时候,还要看看是否设置了noindexnofollowcanonical等等,是否设置正确。然后可以顺便看一下用了什么统计系统, 是否有百度统计、GA统计、CNZZ51la的代码等等。有些网站也把统计代码加到js里,那可以通过Httpfoxfirebug等等工具来看。
3)、看页面的链接是否有问题
这里的问题是指几个方面:
a)url是否过长,url还是越短越好,越短越利于收录。如果url中有中文,url就会很长,就不如短url好收录;
b)url是 否加了nofollow,建议给浏览器按个nofollow插件,如果链接被加了nofollow,就直接标红了,很明显。此老站对非本域名的外链都加了 nofollow,其他链接都没有加nofollow,算是比较保守。真正需要不需要加更多的nofollow,还得需要通过分析日志才能判断;
c)url是否唯一,此老站的内页url最后有ssid”,但你手动把?及后面的部分去掉也能够访问相同的页面,所以此网站有较严重的多个url打开同一个页面的问题,分散权重,这是百度优化指南里明令禁止的。
d)url打 开时的状态码,建议给浏览器装个看http状态码的插件,这样一打开url的时候就立刻显示状态码是什么。如果直接显示200,那就代表没问题,如果返回 302301等等说明链接的不对,应该直接链接到真正的url,不应该是跳转url,这对收录都是很有负面影响的。如果是404503等等之类那网站 就有问题了,具体的各种数字代表的意义请参考HTTP状态码的百科。
如果某页面的链接太多,则可以用工具把url都采下来,然后批量查http状态码。还可以用XenuScreaming Frog SEO Spider来把整个网站都抓一遍,看看有什么问题。
二、SEO方案
针对以上分析出来的问题,提出如下优化方案:
1、把lang=en-US改成lang=zh-cn
2、布局各区县级的关键词;
3、关键词分类不够细,可以在二级域名1下放更多的关键词,二级域名1的外链很多,权重较高;
4、应把url中的多余部分去掉,只保留最简单的一种url在网站显示,把其他url301跳转到唯一的url
5、有很多不需要被收录的动态和跳转url需要加nofollow,以及在robots中禁止蜘蛛爬行;
6、二级域名5是搜索页面,但搜索页面的TDK设置有问题,其页面的相关搜索词相关度不高,url太长,都需要修改。

评论 (4)

  1. admin
    2013 年 9 月 29 日 下午 7:51

    呵呵。谢谢你的来访

  2. admin
    2013 年 9 月 29 日 下午 7:50

    谢谢了

  3. 2013 年 9 月 29 日 下午 4:19

    顶 支持博主加油了

  4. 2013 年 9 月 27 日 下午 5:29

    昨日荣耀-书生博客,追忆逝去的游戏青春,缅怀昔日的网游公会。书生前来学习seo知识,几篇优秀文章已拜读

留下评论

你需要先 登陆 才能留下评论 。