文章内容

2025/4/23 2:42:27,作 者: 黄兵

如何禁止任何爬虫抓取网站

如果我们网站还在开发,互联网已经可以正常访问了,这个时候我们需要禁止任何爬虫抓取网站,以避免网站被搜索引擎列为垃圾网站。

我们可以在网站根目录下面新建一个 robots.txt 文件,内容如下:

User-agent: *
Disallow: /

解释:

  • User-agent: * 表示适用于所有爬虫(如 GooglebotBingbot 等);

  • Disallow: / 表示禁止访问你网站的所有路径。

这样就可以禁止所有爬虫抓取了,等待网站完成之后,将这些内容替换成如下内容:

User-agent: *
Allow:/

这样就可以允许任何爬虫抓取网站了。

分享到:

发表评论

评论列表