繁體
|
簡體
Sclub交友聊天~加入聊天室當版主
(檢舉)
分享
新浪微博
QQ空间
人人网
腾讯微博
Facebook
Google+
Plurk
Twitter
Line
標題:
[教學]
[DG小说论坛]robots.txt文件禁止搜索引擎蜘蛛爬行规则设置
[打印本頁]
作者:
y0y0
時間:
2012-7-31 22:40
標題:
[DG小说论坛]robots.txt文件禁止搜索引擎蜘蛛爬行规则设置
如果想要禁止搜索引擎蜘蛛爬行规则,那么在网站www根目录下建立一个后缀名为:.txt的robots文本文本;这里以Discuz论坛为例,格式代码如下所示:
本帖隱藏的內容需要回復才可以瀏覽
如果说你希望搜索引擎能够抓取到你所有的页面,可以建立一个空文本文档robots.txt 上传上去即可。
有问题欢迎咨询。
http://dg.weclub.info
作者:
达人小G
時間:
2012-7-31 22:51
没有FTP怎么做
作者:
y0y0
時間:
2012-8-1 10:02
回復
2#
达人小G
这个是给有的=-=||
我们这些没有就只能看别人弄咯~{:12_551:}
作者:
eecee
時間:
2012-8-3 10:55
{:12_552:}看看
作者:
0857
時間:
2012-8-4 16:37
還是看看下
作者:
冰楓幻羽
時間:
2013-12-3 00:14
路過看看
作者:
虚位以待
時間:
2014-12-15 15:52
没ftp传毛?您的网站的robots.txt文件目前无法访问
作者:
eiuyh35
時間:
2015-5-21 12:31
提示:
作者被禁止或刪除 內容自動屏蔽
歡迎光臨 SCLUB免費論壇申請-使用者論壇 (http://sclub.com.tw/discuz/)
Powered by Discuz! 7.2