筋斗云SEO的 Linus 教你处理!学会上手仅需1分钟喔~
SEO客户案例
最近有好一些朋友紧急找我们处理网站被挂黑链的问题,恶意攻击会使collection/vendor这种搜索链接批量强制缓存,让你的网站搜索结果出现一大堆这种不堪入目的违规搜索结果,在后台会看到很多奇怪的词汇和点击量飙升的情况:
看到这种情况务必要去马上处理!
其实这种情况已经出现了很久了,最早在10月我们已经关注到我们客户中出现了这种情况,并且已经对我们100多家的SEO客户都做了预防措施。
但后续我们在帮助卖家朋友处理的时候才发现影响面可能比我们想象得多得多,我们发现每一个Shopify网站都有被攻击的风险。
处理方式
首先你需要统计你有多少个语言页面。
比如英语可能是:
其他语言可能是不同的子目录或者域名,根据你的设置而定,比如:
统计完毕后,需要让谷歌删除缓存。
在Google Search Console中选择【编制索引】-【删除】-【新要求】-【暂时移除网址】-【移除所有带此前缀的网址】,填入上一步的统计出来的所有网址,注意不要带参数。
然后,需要在你网站的robots.txt的 User-agent: *中底部添加一条正则表达式:
Disallow: /collections/vendors*
这条正则表达式的意义是匹配到 /collections/vendors 开头的网址都不被谷歌收录。
如果你输入 /collections/vendors?q=*,那灰黑产的恶意攻击者有其他方式进行绕过!因此请直接使用/collections/vendors*
Shopify 编辑方式如下:进入后台,点击模板Themes。
点击Customize旁边的三个点chrome清除缓存,然后点击编辑代码Edit Code。
点击添加新模板,然后选择robots.txt。
默认会创建一个robots.txt的模板,再往中间增加这三行即可:
{%- if group.user_agent.value == '*' -%} {{ 'Disallow: /collection/vendors*' }} {%- endif -%}
另外,还需要在 theme.liquid 中的 标签下方添加以下代码,告知谷歌爬虫屏蔽该页索引。
通过以上简单三步就可以删除掉相关的影响,谷歌会在几天内处理完成处理。你可以看到我们介入之后几天就可以恢复。
我们也反馈了这个情况给到Shopify官方,希望他们能尽快出通用的解决方案。
除此之外,不光是Shopify的网站chrome清除缓存,所有没有处理妥当的网站都会有这个风险,很多黑灰产能够强行地用一些方式提交索引,但是当你提前预防好,就不会出现这个问题。
扩展知识
robots.txt 目的是为了让谷歌不要对这些页面进行收录,如果想了解更多关于robots.txt的知识,请点击以下链接到谷歌官方了解:
robots.txt 简介(Google官方):
Shopify 的 robots.txt 编辑指引:
使用 noindex 阻止搜索引擎编入索引:
———END———
限 时 特 惠: 本站每日持续更新海量各大内部创业教程,一年会员只需98元,全站资源免费下载 点击网站首页每天更新
站 长 微 信: aiwo51889