关于robots.txt写法大全,很少有人谈起,其实用好
robots是很容易为你网站提升权重的,这里启迈
网络公司告诉大家5种对应的写法:
1、用robots保护网站安全不少低级黑客就是通过搜索默认后台登陆,以达到**网站的目标,为了防止后台被蜘蛛抓取,可以采用以下写法,保护网站安全。
User-agent: * 《*代表所有》
Disallow: /admin/ 《禁止蜘蛛抓取admin目录下所有文件》
2、防止盗链一旦被搜索引擎“盗链”那家伙你100M宽带也吃不消,如果你做的不是图片网站,又不想被搜索引擎“盗链”你的网站图片,那么可以写
User-agent: *
Disallow: .jpg$
3、用robots屏蔽网站重复页很多网站一个内容提供多种浏览版本,虽然很方便用户却对蜘蛛造成了困难,因为它分不清那个是主,那个是次
User-agent: *
Disallow: /sitemap/ 《禁止蜘蛛抓取 文本网页》
4、提交网站地图
现在做优化的都知道做网站地图了,可是却没几个会提交的,绝大多数人是干脆在网页上加个链接,其实robots是支持这个功能的
Sitemap: http://old.qimaikj.com/sitemap.xml
5、禁止某二级域名的抓取
一些网站会对VIP会员提供一些特殊服务,却又不想这个服务被搜索引擎检索到
User-agent: *
Disallow: /
以上五招robots写法足以让你对搜索引擎蜘蛛掌控能力提升不少,希望对大家有所帮助。启迈
网络公司