您现在所在的位置:

首页 > IT业界 > 互联网世界 > 国外WEB2.0网站分析-DIGG如何过滤网上重复信息

国外WEB2.0网站分析-DIGG如何过滤网上重复信息

来源:   2006-05-12 04:48
Digg.com是web2.0网站中一个非常成功的文章评论站点,它结合了书签、博客、RSS 以及无等级的评论控制。它的独特在于它没有职业网站编辑,编辑全部取决于用户。用户可以随意提交文章,然后由阅读者来判断该文章是否有用,收藏文章的用户人数越多,说明该文章越有热点。即用户认为这篇文章不错,那么digg一下,当digg数达到一定程度,那么该文章就会出现在首页或者其他页面上。

在Digg上发布文章没有什么要求,只要你找到了一个好玩、有意思或者大家关注的网站、网页,想给大家分享一下,那么就把网址贴出来,给出个标题和介绍,那么大家就可以看,可以评论了。

可是对于一个流量如此大的网站来说,如果每个人都发布同样的文章或是引用链接有误的文章,那么网站会被重复的信息所淹没。可想而知重复的文章就成了垃圾,阅读文章也成了浪费用户的时间。试问:如果一个网站有一千篇文章,其中却有八百篇是一样的文章,你还有兴趣继续看吗?因此如何降低文章的重复率是一个大网站迫在眉睫要解决的问题。

那么Digg是怎么能降低文章的重复率呢?在深入研究Digg.com后我们可以发现,它有四种方式降低文章的重复率。

一、 核对即将发表文章的URL:

每个文章都有自己唯一的URL,系统会对所有的URL进行核对,拥有完全一样的URL文章,代表已经有人发掘过,属于重复的文章,是不能发表的。

二、 核对文章内容:

系统对文章的内容进行核对,会列出与文章内容相关的信息。提醒用户即将发表的文章是否已经出现在Digg里面,让用户自己决定是否要继续发表。

三、 文章缓冲区机制:

发表的文章首先要进入一个缓冲区,即文章必须在缓冲区排队等候用户的评分。用户认为这篇文章不错,那么digg一下,当digg数达到一定程度,那么该文章就会出现在首页或者其他页面上。

四、 通过所有用户给文章评分:

也就是digg.com采用的一个改进的评分机制。你喜欢这个消息,你如果挖一下(+1 digg),当到达一定的分数,这个消息就可以发布到首页上了,一个人或者相同的ip是不能重复digg的。然而Digg的用户在正反方都有相同的权利,对一个不好的文章,用户可以通过Problem按纽给文章做出标示(主要有以下几种标示:重复的文章、不存在的连接、垃圾邮件、旧的新闻、没有根据的新闻、错误的消息)。如果文章被用Problem按纽提交以后,系统会给文章扣除相应的分数。反之如果文章得到用户推荐,那么系统会给文章加上相应的分数。

另外Digg.com 拥有一个Digg Spy v2(自动刷新的实时查看器)的系统,可以查看当前发布在首页上的文章和在文章缓冲区里等待评分的文章的更新情况。

Digg文章更新量极大,速度很快,用户可以不断修正最初的消息报道。同时可以通过评论系统也能了解其他人的发言,知道哪些文章是否是真实的。通过用户评分文章才能发布在首页,这样就为广大用户节约了阅读重复信息或虚假信息的时间。

在国内也有多个模仿的站点:
中国掘客网http://www.cndigg.com
新聚网:http:// www.TagRiver.com
热点文章
  • 一比多网站:一比多一比多移动平台
  • 一比多咨询热线:13361975067   

    沪公网安备 31011502004088号

  • 增值电信业务经营许可证:沪B2-20070060 网站ICP备案号:沪ICP备07012688号 一比多(EBDoor) 版权所有 Copyright 1998-2018 EBDoor.com All rights reserved.