robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。
首先来解释下robots.txt是什么?robots.txt有什么作用?
robots.txt是搜索引擎中访问网站的时候要查看的***个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
以上内容来自百度百科。
看了上面的内容就能了解robots.txt是告诉搜索们该收录哪些页面, 所以我们就要知道zblog程序里面哪有文件夹是给蜘蛛爬的哪些文件夹不能给蜘蛛爬。。
给大家一个示范的robots.txt也就是本站的robots.txt文件:
User-agent: * Disallow: /zb_users/ Disallow: /zb_system/ Disallow: /search.php Disallow: /style.php Disallow: /feed.php Sitemap:http://www.yuyubebe.cn/sitemap.xml
上面的robots.txt意思是让蜘蛛不要爬zb_users和zb_system这两个文件夹,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你们可以下载其他插件(https://app.zblogcn.com/search.php?q=Sitemap)生成Sitemap文件。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
本文链接:http://www.yuyubebe.cn/2019/08/150/- 上一篇: Zblog伪静态如何配置问题
- 下一篇: zblog各个文件文件详细说明
发表评论