这篇文章是关于robots.txt的设置原则和安全封锁区域的内容。主要介绍了必封禁的8大高危目录和安全封锁区域,并提供了一个robots.txt模板。同时,文章还涉及特殊爬虫策略、Sitemap位置指定以及高阶优化技巧等。在使用缓存插件时,需要注意设置更新robots.txt后自动清除缓存。文章提供的方案已经通过Google核心算法更新测试,旨在兼顾SEO收录效率与服务器安全防护。建议每季度检查一次爬虫访问日志,及时更新屏蔽规则。
![图片[1]-WordPress之robots.txt设置指南:精准吸引搜索引擎+屏蔽安全风险-玩转网](https://www.902d.com/wp-content/uploads/2025/09/125e8d41b120250921205750.png)
一、robots.txt核心设置原则
- 精准放行:开放所有SEO价值内容
- 安全封锁:屏蔽敏感目录和后台路径
- 阻止无效爬虫消耗服务器资源
二、必封禁的8大高危目录(安全红线)
| 封锁原因 | |
| /wp-admin/ | 防止暴力破解后台登录 |
| /wp-includes/ | 屏蔽核心文件访问 |
| /*/comments/feed/ | 避免垃圾评论采集 |
| /?s= | 禁止搜索页面收录 |
| /wp-json/ | 关闭REST API入口 |
| /xmlrpc.php | 封堵DDoS攻击通道 |
| /trackback/ | 阻止垃圾引用通告 |
| /*?replytocom | 防评论表单劫持 |
三、robots.txt模板
# 放行所有主流搜索引擎
ser-agent: *
Allow: /wp-content/uploads/
Allow: /*.css
Allow: /*.js
# 核心安全封锁区域
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-login.php
Disallow: /wp-signup.php
Disallow: /readme.html
Disallow: /license.txt
Disallow: /xmlrpc.php
Disallow: /trackback/
Disallow: /feed/
Disallow: /?s=
Disallow: /*?replytocom
# 特殊爬虫策略(按需启用)
User-agent: AhrefsBot
Disallow: /
User-agent: SemrushBot
Crawl-delay: 10
# 指定Sitemap位置
Sitemap: https://你的域名.com/sitemap_index.xml
四、高阶优化技巧
- 动态屏蔽采集器:在.htaccess添加: RewriteCond %{HTTP_USER_AGENT} (MJ12bot|DotBot) [NC] RewriteRule ^ – [F,L]
- 开放AMP页面:添加 Allow: /*/amp/
- 多语言站点:为每种语言开放目录 Allow: /en/blog/
五、三大验证工具
- Google Search Console – robots测试工具
- Ahrefs – Robots.txt检查器
- TechnicalSEO – 实时解析工具
避坑提醒:
使用缓存插件时,务必在设置中勾选“更新robots.txt后自动清除缓存”,否则修改可能不生效! 本文提供的方案已通过Google核心算法更新测试(2024版),兼顾SEO收录效率与服务器安全防护。建议每季度检查一次爬虫访问日志,及时更新屏蔽规则。
© 版权声明
网站名称:玩转网
本文链接:
版权声明:知识共享署名-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)协议进行许可
本站资源仅供个人学习交流,转载时请以超链接形式标明文章原始出处,(如有侵权联系删除)
本站代码模板仅供学习交流使用请勿商业运营,严禁从事违法,侵权等任何非法活动,否则后果自负!
THE END












