dedecms的robots.txt
时间 : 2023-12-31 22:22:02 声明: : 文章内容来自网络,不保证准确性,请自行甄别信息有效性

最佳答案

以下是一个dedecms网站的基本robots.txt配置:

User-agent: *

Disallow: /dede/

Disallow: /include/

Disallow: /plus/

Disallow: /data/

Disallow: / templets /

Disallow: /member/

Disallow: /tag/

Disallow: /search/

Disallow: /archive/

Disallow: /book/

Disallow: /*.html?

Disallow: /*.shtml?

Disallow: /*.php$

Disallow: /*.js$

Disallow: /*.css$

Disallow: /*.ico$

Disallow: /*.png$

Disallow: /*.gif$

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.pdf$

Disallow: /*.swf$

Disallow: /*.xml$

Disallow: /*.txt$

Disallow: /*.rar$

Disallow: /*.zip$

Disallow: /*.7z$

以上配置的含义如下:

- User-agent: * 表示适用于所有搜索引擎爬虫。

- Disallow: /dede/ 表示禁止访问dede目录。

- Disallow: /include/ 表示禁止访问include目录。

- Disallow: /plus/ 表示禁止访问plus目录。

- Disallow: /data/ 表示禁止访问data目录。

- Disallow: /templets/ 表示禁止访问templets目录。

- Disallow: /member/ 表示禁止访问member目录。

- Disallow: /tag/ 表示禁止访问tag目录。

- Disallow: /search/ 表示禁止访问search目录。

- Disallow: /archive/ 表示禁止访问archive目录。

- Disallow: /book/ 表示禁止访问book目录。

- Disallow: /*.html? 表示禁止访问所有以.html?结尾的URL。

- Disallow: /*.shtml? 表示禁止访问所有以.shtml?结尾的URL。

- Disallow: /*.php$ 表示禁止访问所有以.php结尾的URL。

- Disallow: /*.js$ 表示禁止访问所有以.js结尾的URL。

- Disallow: /*.css$ 表示禁止访问所有以.css结尾的URL。

- Disallow: /*.ico$ 表示禁止访问所有以.ico结尾的URL。

- Disallow: /*.png$ 表示禁止访问所有以.png结尾的URL。

- Disallow: /*.gif$ 表示禁止访问所有以.gif结尾的URL。

- Disallow: /*.jpg$ 表示禁止访问所有以.jpg结尾的URL。

- Disallow: /*.jpeg$ 表示禁止访问所有以.jpeg结尾的URL。

- Disallow: /*.pdf$ 表示禁止访问所有以.pdf结尾的URL。

- Disallow: /*.swf$ 表示禁止访问所有以.swf结尾的URL。

- Disallow: /*.xml$ 表示禁止访问所有以.xml结尾的URL。

- Disallow: /*.txt$ 表示禁止访问所有以.txt结尾的URL。

- Disallow: /*.rar$ 表示禁止访问所有以.rar结尾的URL。

- Disallow: /*.zip$ 表示禁止访问所有以.zip结尾的URL。

- Disallow: /*.7z$ 表示禁止访问所有以.7z结尾的URL。

请注意,这只是一个示例的配置,根据你的需要和网站的具体情况,你可能需要进行适当的修改。比如,如果你希望搜索引擎可以访问某个特定的目录,你可以删除相应的"Disallow"行。同时,如果你希望排除某些特定的搜索引擎爬虫,你可以根据其User-agent进行具体的配置。

其他答案

dedecms的robots.txt是一个用来控制搜索引擎爬虫访问网站的文件。该文件位于网站的根目录下,用于告诉搜索引擎哪些页面可以被抓取,哪些页面应该被忽略。

以下是一个样例的dedecms的robots.txt文件:

User-agent: *

Disallow: /data/

Disallow: /dede/

Disallow: /plus/

Disallow: /member/

Disallow: /templets/

Disallow: /include/

Disallow: /install/

Disallow: /auth.inc.php

Disallow: /config.php

上述例子中:

User-agent: * 代表适用于所有搜索引擎爬虫的规则。

Disallow: /data/ 代表不允许访问/data/文件夹下的内容。

Disallow: /dede/ 代表不允许访问/dede/文件夹下的内容。

Disallow: /plus/ 代表不允许访问/plus/文件夹下的内容。

Disallow: /member/ 代表不允许访问/member/文件夹下的内容。

Disallow: /templets/ 代表不允许访问/templets/文件夹下的内容。

Disallow: /include/ 代表不允许访问/include/文件夹下的内容。

Disallow: /install/ 代表不允许访问/install/文件夹下的内容。

Disallow: /auth.inc.php 代表不允许访问/auth.inc.php文件。

Disallow: /config.php 代表不允许访问/config.php文件。

通过编辑这个文件,你可以自定义哪些页面应该被搜索引擎爬虫忽略,从而保护你的网站的安全性和隐私。需要注意的是,这个文件是一个纯文本文件,它的规则是遵循 Robots Exclusion Protocol(机器人排除协议)的标准。