来源:华北热线 日期:2013-10-17
百度和360之间的搜索引擎之争愈演愈烈,竞争手段有不断升级,为了打击360,百度使用Robots协议白名单,禁止360抓取百度百科、百度贴吧和百度知道的内容,而谷歌、Bing、搜狗和搜搜等搜索引擎还可以自由抓取。
360认为百度对Robots协议的使用具有歧视性而拒绝遵守,百度因此起诉360不遵守Robots协议。
北京德和衡律师事务所合伙人,知识产权和反不正当竞争律师杨倩娥在接受记者采访时称:任何企业都需要合理合法的使用各种行业协议和规范,保护行业和企业自身的利益和健康发展。
但如果歧视性使用类似于Robots这样的协议,将其作为打击竞争对手的工具,就可能构成不正当竞争,得不到法律的保护。
Robots 协议最初是内容网站针对谷歌内容抓取制定的一个协议,是由荷兰籍网络工程师Martijn Koster于 1994 年首次提出,并于 1997 年向 IETF 提交申请试图把 Robots 协议作为该组织规范,但被 IETF 拒绝。之后,国际电信联盟( ITU )、 W3C 的规范也同样拒绝采纳 Robots 协议。原因是欧美电信专家担心,由于 Robots 协议包含排斥性条款,搜索巨鳄可能会利用 Robots 协议的条款,迫使某些热门网站与其签署排他性协议,从而将后起竞争者挡在门外,维护垄断。
Martijn Koster自己也曾说过,Robots协议就是一种行业约定俗成,没有任何法律效力。目标主要是为了规范搜索引擎与提供内容的网站间的内容抓取和引用。
百度通过为Robots协议设置白名单禁止360抓取百科、百度知道和百度贴吧内容而允许其他搜索引擎抓取,显然具有一定的歧视性。
网友 | 评论 | 评论时间 | ||||
|