您现在所在的位置:

首页 > 网站运营 > 网站运营 > 指定多个相同页面时的URL权威链接用法

指定多个相同页面时的URL权威链接用法

来源:陈见刚的博客   2011-03-22 01:35
  之前在seo论坛上逛的时候,看到一篇关于用rel="canonical"指定多个相同页面时的URL权威链接用法的文章,大概的意思就是在网页的中加入。据说这是自站点地图(sitemap)推出以来,SEO的最大变化。

  什么是rel="canonical"?

  规范网页是一组内容高度相似的网页的首选版本,rel="canonical"属性是一个让Google知道在当前网站中的众多重复或高度相似网页中,哪一个页面才是站长想让他抓取收录的页面,从功能上来讲,可以理解为301永久重定向的辅助功能。

  为什么要用rel="canonical"?

  对于网站来说,包含多个列有同组产品的网页很正常。例如,一个网页可能按字母表顺序显示产品,而其他网页则按照价格或评分显示相同产品。例如:

  http://www.example.com/product.php?item=swedish-fish&trackingid=1234567&sort=alpha&sessionid=5678asfasdfasfd

  http://www.example.com/product.php?item=swedish-fish&trackingid=1234567&sort=price&sessionid=5678asfasdfasfd

  在以前Google会经过自己的判断选择,如果认为这些路径是重复内容,则会选择其中一个页面来抓取,但是这个页面并不一定是站长最想被收录的。现在站长可以通过将元素和 rel="canonical" 属性添加到这些路径不规范的页面的区域来为搜索引擎指定规范网页。添加此链接和属性就等于向Google 提出建议:“在内容相同的www.wl168.com所有网页中,此网页最有用。请将该网页排在搜索结果中靠前的位置”。

  如何指定规范网页?

  要指定指向网页http://www.example.com/product.php?item=swedish-fish 的规范链接,请按以下形式创建 元素:

  将上述链接复制到该网页所有非规范版本的部分

  如 http://www.example.com/product.php?item=swedish-fish&sort=price。

  如果您在 http://www.example.com/product.php?item=swedish-fish 和 https://www.example.com/product.php?item=swedish-fish 上都发布了内容,则可以指定该网页的规范版本。创建元素:

  将上述链接添加到 https://www.example.comproduct.php?item=swedish-fish 的部分。这样Google在抓取您网站页面时,就会认为这个页面才是规范页面。
下面来说一下rel="canonical"与301、robots.txt的区别和使用条件:

  1.301跳转与link rel="canonical":尽管在雅虎的声明中可以看到,link在转移链接引用和其它效果到权威页面的处理上类似301转向,google也说明能够转移PageRank和相关信息,bing(原Live search)举的例子也是对一个主页的不同形式做规范化。但目前这个标签还没有被真正地执行,能不能像301转移全部的权重还是有所区别都是未知的,而且此属性没跳转功能,所以最好使用301,用来做域名的规范化效果会更好。

  2.robots.txt与rel="canonical" :以前我们使用robots.txt文件来禁止复制网页,因为像打印页之类,不能使用301转移走,现在Link 标签中的rel="canonical" 属性也能实现同样的功能,还能够像301转移权重,将比robots.txt更具优势。

  3.什么时候适合使用rel="canonical" :在制作网站中仍需减少副本网页或者使用301跳转规范化网址,如果都不行再用 这个标签。在google的博客中还看到,如果指定的权威网页没有被索引,将可能被立即被索引,这在链接不畅时比使用robots.txt禁止复制网页更能加快网页的收录。因此这个标签,在其它任何方法都无法消除复制网页时,指出权威网页,将是最好的方法。

  Link标签的rel="canonical"属性用法对大型的网站的SEO优化非常有帮助,大家不妨尝试着去使用她。。。
补:

  rel="canonical" 具体对 SEO 的影响,我想是这样的:

  这样做有利于爬虫抓网页,重复的内容不做重复的工作,也就是提高了爬虫的效率。

  还有就是,很多爬虫访问网站会给服务器造成压力,这样做或许可以减轻服务器的压力。

  当然,也有朋友是这样说的:没多大用的 只会给自己留下更深刻的SEO痕迹  真正的SEO 就是脱离SEO  搞得越多 死的越快 。其实他说得也很有道理,这篇文章仁者见仁,智者见智,大家要是可以应用得好,那样对网站的收录也是很有利的,要是用得不好,对SEO方面也会有一定影响,希望有高手看到这文章给点建议,谢谢!
追记:

  如果被搜索引擎认为是"重复内容的网页",可能会降低网站的 PR 值,因为搜索引擎可能会认为你这个网站就是复制粘贴粗制滥造的东西。只是猜想,仅供参考。
热点文章
  • 一比多网站:一比多一比多移动平台
  • 一比多咨询热线:13361975067   

    沪公网安备 31011502004088号

  • 增值电信业务经营许可证:沪B2-20070060 网站ICP备案号:沪ICP备07012688号 一比多(EBDoor) 版权所有 Copyright 1998-2018 EBDoor.com All rights reserved.