robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。
首先来解释下robots.txt是什么?robots.txt有什么作用?
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
以上内容来自百度百科。
zblog 目录文件
写robots.txt规则之前,要先了解zblog 所包含的文件,文件夹以及它们的作用是什么。以下图片所展示的内容,为zblog中所包含的文件夹以及文件。
feed.php : RSS Feed 入口文件
index.php : 前端页面入口文件
search.php : 搜索入口文件
zb_install 文件夹:zblog 初始化安装文件夹,安装完毕会自动删除,或手动删除
zb_system 文件夹:为 zblog 框架的主要文件,需要屏蔽搜索蜘蛛去它以及它所包含的内容抓取
zb_users 文件夹:为 zblog 为用户文件夹,里面包含了主题文件夹,插件文件夹,以及附件存放文件夹。
avatar :用户头像文件夹
cache :缓存文件夹
data :数据文件夹(屏蔽蜘蛛)
emotion :表情文件夹
language :语言包文件夹(屏蔽蜘蛛)
logs :目志文件夹,里面文件是记录错误的(屏蔽蜘蛛)
plugin :插件文件夹
theme :主题文件夹
upload :附件文件夹(图片或其它类型文件)
zblog博客的robots.txt文件的写法
以下输入规则,仅供参考
ActionScript
代码语言:javascript复制User-agent: *
Disallow: /zb_system/
Disallow: search.php
Disallow: /zb_users/data/
Disallow: /zb_users/language/
Disallow: /zb_users/logs/
Sitemap: https://blog.wenwuhulian.com/sitemap.xml
注意:sitemap.xml 为网站的地图文件,可以在zblog应用中心搜索相关的插件
上面的robots.txt意思是让蜘蛛不要爬zb_users和zb_system这两个文件夹,另外本站的“Sitemap”文件是“seo工具大全”插件生成的,你们可以下载其他插件(https://app.zblogcn.com/search.php?q=Sitemap)生成Sitemap文件。