公告:

欢迎访问元元本本博客-关注建站技术、SEO优化、主机服务器、站长学习分享!

zblog的robots.txt怎么写比较好?

作者:元元本本博客 / 时间:3个月前 (08/16) / 分类:学习zblog / 阅读:72 / 评论:0

robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。

首先来解释下robots.txt是什么robots.txt有什么作用

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

以上内容来自百度百科。

看了上面的内容就能了解robots.txt是告诉搜索们该收录哪些页面, 所以我们就要知道zblog程序里面哪有文件夹是给蜘蛛爬的哪些文件夹不能给蜘蛛爬。。

给大家一个示范的robots.txt也就是本站的robots.txt文件:

Markup
User-agent: *Disallow: /zb_users/Disallow: /zb_system/Disallow: /search.phpDisallow: /style.phpDisallow: /feed.phpSitemap:http://www.yuyubebe.cn/sitemap.xml

上面的robots.txt意思是让蜘蛛不要爬zb_users和zb_system这两个文件夹,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你们可以下载其他插件(https://app.zblogcn.com/search.php?q=Sitemap)生成Sitemap文件。

打赏支付宝打赏微信打赏
  • QQ交流群
  • 互相指导
  • 博客主微信
  • 方便沟通

没有评论,留下你的印记,证明你来过。


发表评论:取消回复

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。