🚀 建站太难?我来手把手带你—— 了解「WordPress建站陪跑」服务 →

更改搜索引擎蜘蛛的抓取速度,避免占用太多服务器资源

正常情况下,我们做Google SEO当然是希望搜索引擎蜘蛛可以天天在你网站里面爬行抓取内容,但是如果你的服务器有资源限制,那么可能Google蜘蛛太频繁的抓取你网站会导致服务器资源耗尽,或者网站打开缓慢的情况发生。 在这种情况下,我们就可以考虑适当的降低搜索引擎的抓取速度,以保证网站可以正常打开访问,不会被蜘蛛爬挂。

设置Googlebot的抓取速度

  Google 采用先进的算法来确定最佳的网站抓取速度,Google搜索蜘蛛每次访问您的网站时,在不导致您的服务器带宽过载的情况下尽可能多地抓取网页。 如果 Google 每秒向网站发出的请求过多,导致服务器的速度下降,您可以限制 Google 抓取您网站的速度。 您可以限制对根级网站(例如 www.example.com 和 http://subdomain.example.com)的抓取速度。您设置的抓取速度是 Googlebot 的抓取速度上限。请注意,Googlebot 并不一定会达到这一上限。 除非您发现服务器出现负载问题并确定该问题是由于 Googlebot 过于频繁地访问您的服务器导致的,否则我们建议您不要限制抓取速度。 您无法更改对非根级网站(例如 www.example.com/folder)的抓取速度。 设置Google机器人抓取速度 具体限制方法: 打开资源的“抓取速度设置”页面
  • 如果抓取速度是“计算出的最佳速度”,那么降低抓取速度的唯一方式是提交特殊请求。您无法提高抓取速度。
  • 否则,请选择相应选项,然后根据需要限制抓取速度。新抓取速度的有效期为 90 天。

设置所有搜索蜘蛛的抓取速度

除了单独设置外,还可以使用robots.txt文件的Crawl-delay指令来设置搜索引擎抓取频率。 大多数的搜索引擎都支持Crawl-delay参数,设置为多少秒,以等待同服务器之间连续请求:
User-agent: *
Crawl-delay: 10
你只需要把上面的代码添加到你网站的robots.txt文件里面,等待搜索引擎的蜘蛛抓取并识别就可以了。 对于蜘蛛把网站抓挂的情况虽然很少碰见,不过确实有这种情况发生,对于普通的外贸企业网站,本身都没有多少内容的,蜘蛛也没有必要24小时频繁的抓取资源,毕竟网站速度如果被拖慢了,又影响SEO效果,也影响用户体验。 所以当你发现你网站疯狂被蜘蛛抓取的时候,就可以考虑这样操作了。 相关文章:

🚀 看教程还是觉得迷茫?不如让我手把手带你

「WordPress建站陪跑」——从选域名、买主机,到装主题、上线发文,每一步都有我全程陪跑,少走弯路,直达目标。

👉 了解建站陪跑服务
🔒

评论已关闭

本文的评论功能已关闭,如有问题欢迎通过其他方式联系我们。

×
二维码

扫码关注