Return to site

谷歌优化-Google Exploit:Canonical Negative SEO

google seo

· seo优化

已经发现了一种新的负面SEO攻击方法。使这种攻击特别糟糕的是,几乎不可能检测到攻击者。如果攻击网站未知,则无法恢复。

到目前为止,谷歌仍然保持沉默,他们打算如何继续关闭谷歌排名和取消网页排名的漏洞。

值得注意的是,已经观察到这种利用,但未经过测试和验证。如果这种利用是真实的,它有可能以一种主要方式扰乱谷歌的搜索结果。

攻击是如何被揭露的

Hartzer Consulting的Bill Hartzer 发现了跨站点规范攻击。一家企业向他询问了排名突然下降的情况。在审查反向链接的过程中,Hartzer发现了与一个陌生网站的链接。

但客户端没有链接到该网站。调查其他网站导致他到负面的SEO网站。

如果该攻击网站没有链接到第三页,那么Hartzer将无法识别攻击网站。这要归功于SEO数据挖掘公司Majestic的新索引,其中包括Hartzer能够发现攻击网站的规范数据。(编者注: Hartzer是Majestic品牌大使。)

Canonical Negative SEO如何运作

攻击的工作原理是将受害者网页的整个“头部”部分复制到垃圾网页的头部,包括规范标签。规范标签告诉Google此垃圾邮件页面是受害者的网页。

然后谷歌可能会将垃圾网页上的所有内容(以及负面垃圾邮件分数)分配给受害者的网页

什么是Google对Rel = Canonical Say的支持页面?

以下是谷歌自己的支持页面,介绍了Google如何处理rel = canonical。以下是Google自己的支持页面:

我为什么要选择规范网址?

您希望在一组重复/类似页面中明确选择规范页面的原因有很多:

合并类似或重复页面的链接信号。它可以帮助搜索引擎将各个URL的信息(例如指向它们的链接)整合到一个首选的URL中。这意味着来自其他站点的 http://example.com/dresses/cocktail?gclid=ABCD 链接将与链接合并 https://www.example.com/dresses/green/greendress.html。

什么是谷歌的回应?

到目前为止,谷歌似乎专注于在没有调查的情况下驳回这个想法。 John Mueller在Twitter上发布说Rel-Canonical是一项十年前的技术,这样的事情已经浮出水面。这是“Google的Mueller推文:

相关规范已经存在了十多年,人们已经尝试了很多东西。这是规范化的信号; 一个URL获胜,其他人的抓取被删除。

他的论点与最近的XML Sitemap Exploit相矛盾,后者已由Google正式确认。 仅仅因为技术已有十年之久并不意味着它无法被利用。最近的XML Sitemap Exploit与Mueller的声明相矛盾。

此外,Rel = Canonical不仅会影响爬网预算。正如您从上面引用的Google支持页面中看到的,Rel = Canonical结合了链接分数。
穆勒跟进说:

“rel规范组合页面的前提是错误的。这不是它的工作方式,它可能是其中之一。“

但Twitter上的其他人指出,这一陈述与穆勒自己的言论相矛盾,他在接受采访时表示:

“通过规范,你告诉我们这个页面实际上与其他页面相同。这对我们有所帮助,因为我们可以将这两个页面的所有信号都合并到一起。“

穆勒的最后一句话描述了哈泽尔声称要发生的事情。Hartzer声称来自攻击页面的负面排名信号,包括成人网站的出站链接,赌博等,正在与受害者网站上的页面相结合。

结果是受害者失去了排名的能力,大概是因为所有负面的垃圾邮件信号都归因于受害者的网站。

来自谷歌的声明#1因为Rel-Canonicals已经十年之久并不是解雇Hartzer警报的正当理由。已确认的XML Sitemap Exploit与Google的声明相矛盾。
来自Google的声明#2,rel-canonicals不合并页面是无效的,因为Mueller自己的话和谷歌自己的支持页面与他的断言相矛盾。
发布商可能会更好地了解Google正在认真对待报告并正在调查报告。这是一个更好的回应,而不是不审查报告,只是用矛盾的陈述来驳回它。

如何检测此攻击

我问Hartzer是否有另一种方法来检测这些攻击。他说他尝试了许多软件工具,包括Copyscape和其他许多工具。但到目前为止,只有Majestic能够识别出一些攻击性网站。

“我尝试了源代码搜索引擎publicwww,但它没有显示数据 - 只有Majestic实际上显示了这种关系,这是因为那个做负面SEO的人联系了,”Hartzer说。“在我发现的其他情况下,该网站没有链接。我知道还有其他网站正在这样做......看过其他一些网站。“

谷歌是否正在采取措施阻止跨站点漏洞?

最近发现类似漏洞的Kristine Schachinger提供了以下观察结果:

“通常攻击方法和结果可以直接相互追踪。但是这次攻击的矢量不在被攻击的网站中,而是谷歌seo算法的弱点。

这次袭击是基于谷歌“将这两个网站视为一体”。这会在攻击者和受害者站点之间传递正面或负面变量。

混乱持续了一段时间,这意味着攻击具有超出实际攻击生命周期的持久性。这是谷歌似乎没有积极解决的谷歌问题。“

这是Exploit Real吗?
这个漏洞被记录为发生在几个站点。但值得注意的是,迄今为止还没有任何实验证实这种攻击是可能的。

谷歌可以做些什么来阻止这种漏洞?
如果此漏洞利用是真实的,则会影响Google和Bing如何使用规范标记。

实际上,规范标签不是指令。这意味着与Robots.txt文件不同,搜索引擎没有义务遵守规范标记。搜索引擎将规范标记视为建议。

如果确认规范标签的工作方式存在缺陷,则可能的解决方案可能是搜索引擎更新规范规范,以便不再用于规范不同的域。理想情况下,这应该通过Google Search Console完成。

谷歌优化百度优化有需求的企业可咨询我们,我们提供专业的seo服务,浙江区的杭州seo嘉兴seo绍兴seo我们上门服务。

All Posts
×

Almost done…

We just sent you an email. Please click the link in the email to confirm your subscription!

OKSubscriptions powered by Strikingly