更改搜索引擎蜘蛛的抓取速度,避免占用太多服务器资源
作者:98wpeu发布时间:2026-03-04分类:WordPress教程浏览:5
正常情况下,我们做Google SEO当然是希望搜索引擎蜘蛛可以天天在你网站里面爬行抓取内容,但是如果你的服务器有资源限制,那么可能Google蜘蛛太频繁的抓取你网站会导致服务器资源耗尽,或者网站打开缓慢的情况发生。
在这种情况下,我们就可以考虑适当的降低搜索引擎的抓取速度,以保证网站可以正常打开访问,不会被蜘蛛爬挂。
设置Googlebot的抓取速度
Google 采用先进的算法来确定最佳的网站抓取速度,Google搜索蜘蛛每次访问您的网站时,在不导致您的服务器带宽过载的情况下尽可能多地抓取网页。
如果 Google 每秒向网站发出的请求过多,导致服务器的速度下降,您可以限制 Google 抓取您网站的速度。
您可以限制对根级网站(例如 www.example.com 和 http://subdomain.example.com)的抓取速度。您设置的抓取速度是 Googlebot 的抓取速度上限。请注意,Googlebot 并不一定会达到这一上限。
除非您发现服务器出现负载问题并确定该问题是由于 Googlebot 过于频繁地访问您的服务器导致的,否则我们建议您不要限制抓取速度。
您无法更改对非根级网站(例如 www.example.com/folder)的抓取速度。

具体限制方法:
打开资源的“抓取速度设置”页面。
- 如果抓取速度是“计算出的最佳速度”,那么降低抓取速度的唯一方式是提交特殊请求。您无法提高抓取速度。
- 否则,请选择相应选项,然后根据需要限制抓取速度。新抓取速度的有效期为 90 天。
设置所有搜索蜘蛛的抓取速度
除了单独设置外,还可以使用robots.txt文件的Crawl-delay指令来设置搜索引擎抓取频率。
大多数的搜索引擎都支持Crawl-delay参数,设置为多少秒,以等待同服务器之间连续请求:
User-agent: * Crawl-delay: 10
你只需要把上面的代码添加到你网站的robots.txt文件里面,等待搜索引擎的蜘蛛抓取并识别就可以了。
对于蜘蛛把网站抓挂的情况虽然很少碰见,不过确实有这种情况发生,对于普通的外贸企业网站,本身都没有多少内容的,蜘蛛也没有必要24小时频繁的抓取资源,毕竟网站速度如果被拖慢了,又影响SEO效果,也影响用户体验。
所以当你发现你网站疯狂被蜘蛛抓取的时候,就可以考虑这样操作了。
相关文章:
- WordPress查看搜索引擎蜘蛛活动记录的方法
- 垃圾蜘蛛AhrefsBot封禁方法 附AhrefsBot爬虫IP列表
- 服务器被假冒百度蜘蛛爬取的屏蔽方法
相关推荐
- 自建WordPress网站使用图片延迟加载插件优化网页速度
- 做Google SEO优化一定要知道的名词:SERP(搜索引擎结果页)
- 限制Bing等搜索引擎抓取频率降低服务器负载
- SEO蜘蛛日志分析帮手:Spider Analyser插件介绍和下载
- 网站速度跟什么有关_影响网站速度慢的8个方面
- Websinoo Speed Optimizer 最好的WordPress常用插件下载 博客插件模块
- Elementor最好的WordPress常用插件下载博客插件模块的蜘蛛元素加载项
- 如何在WordPress中修复错误太多重定向的问题
- 如何修复WordPress 429请求太多错误
- 如何在WordPress中只向搜索引擎访问者显示广告
- WordPress教程排行
- 最近发表


