(●'◡'●)ノ
SEO,网站问题 
收藏文章 楼主

如何巧妙写robots文件,既禁止指定目录抓取又不让别人看到你的禁止目录

版块:经验教程   类型:普通   作者:小狼人   查看:3062   回复:0   获赞:15   时间:2017-08-14 12:20:11

robots文件,一个说难不难,说易嘛,真要用到特殊情况的时候也不容易,一个让SEO又爱又恨的东西。比较最近提交robots文件,既不想让蜘蛛抓取我的指定目录,又不想被别人通过robots文件看到我的目录。常见的robots文件无非也就随便allow,disallow一下,当然今天用的这个方法也是巧妙的disallow了一下。不多说,直接上栗子:

User-agent: *
Disallow: /*admi*
Disallow: /*dat*
Disallow: /*inclu*
Disallow: /*instal*
Disallow: /*logrepor*
Disallow: /plus
Disallow: /style
Disallow: /*templet*

这里巧妙的使用了*号,Disallow: /*admi*,意思是包含“admi”的 目录或域名 都不能被抓取,而*admi*,可以是admin,admin123,admin444,admin_2baa ... 可以是无数的可能,所以几乎没人猜得出来,也就相当于禁止别人看到你的目录了,从而起到安全作用。(robots文件参考:http://zhanzhang.baidu.com/college/courseinfo?id=267&page=12#h2_article_title28)

如何巧妙写robots文件,既禁止指定目录抓取又不让别人看到你的禁止目录

赢得客户的认可,需要服务细节化 
回复列表
默认   热门   正序   倒序

回复:如何巧妙写robots文件,既禁止指定目录抓取又不让别人看到你的禁止目录

Powered by HadSky 8.5.2

©2015 - 2025 爱宅域

加入官群 QQ咨询 友链展示 申请友链

您的IP:216.73.216.254,2025-06-16 04:02:38,Processed in 0.74605 second(s).

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
已有0次打赏
(15) 分享
分享

请保存二维码或复制链接进行分享

取消