正文内容 评论(0

探索Google robots.txt隐藏的秘密
2006-09-28 14:50:00  出处:快科技 作者:木艺儿 编辑:木艺儿     评论(0)点击可以复制本篇文章的标题和链接

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。但是,如果网站的某些信息不想被别人搜索到,我们可以创建一个纯文本文件robots.txt,放在网站根目录下。这样,搜索机器人会根据这个文件的内容,来确定哪些是允许搜寻的,哪些是不想被看到的。

有趣的是,这种特性往往用来作为参考资料,猜测网站又有什么新动向上马,而不想让别人知道。例如通过分析Google的robots.txt变化来预测Google将要推出何种服务。

有兴趣的读者可以看一下Google的robots.txt文件,我们注意到前几行就有“Disallow: /search”,而结尾新加上了“Disallow: /base/s2”。

现在来做个测试,按照规则它所隐藏的地址是http://www.Google.com/base/s2,打开之后我们发现Google给出了一个错误提示:“服务器遇到一个暂时性问题不能响应您的请求,请30秒后再试。”


探索Google robots.txt隐藏的秘密

但是当我们把s2最后的数字换成1、3或者别的什么数字的时候,错误提示又是另一个样子:“我们不知道您为什么要访问一个不存在的页面。”


探索Google robots.txt隐藏的秘密

很显然“/base/s2”是一个特殊的页面,鉴于Google曾表示过今年的主要焦点是搜索引擎,我们推测一下,所谓的“s2”是否表示“search2”,也就是传说中的第二代搜索引擎?

出于好奇,我们也尝试了一下百度的robots.txt,比密密麻麻的Google简洁了许多,只有短短几行:

User-agent: Baiduspider

Disallow: /baidu

User-agent: *

Disallow: /shifen/dqzd.html

第一段就不用说了,第二段我们也遇到了同样打不开的错误,不过,按以前的资料来看,这是百度曾经的竞价排名的区域核心代理一览表以及地区总代理一览表,出于某些可以理解的原因我们做了模糊处理。


探索Google robots.txt隐藏的秘密

有兴趣的朋友可以继续尝试探索其他网站的robots.txt,发现好玩的东西不要忘记发到我们论坛与大家分享。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#快讯

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...