Return to site

停留时间真的对SEO有影响吗?

· seo优化
机器学习对SEO 的真正影响是什么?这是过去一年中SEO中最大的争论之一。

请注意,本文最初发布在Wordstream博客上; 它被许可转载。

我不会撒谎:我对机器学习有点痴迷。我的理论是,谷歌核心算法中的RankBrain和/或其他机器学习元素越来越多地奖励具有高用户参与度的页面。

基本上,谷歌希望找到独角兽 - 具有非凡的用户参与度指标的网页,如自然搜索点击率(CTR),停留时间,跳出率和转化率 - 并奖励具有更高自然搜索排名的内容。

更快乐,更专注的用户意味着更好的搜索结果,对吧?

因此,基本上,机器学习是谷歌的Unicorn Detector。

机器学习和点击率
许多搜索引擎优化专家和影响者都表示,在野外找到谷歌RankBrain的任何证据是完全不可能的。

这是荒谬的。您只需要运行SEO实验,并更聪明地了解如何进行这些实验。

这就是为什么在过去,我进行了一项随着时间的推移研究CTR的实验。我希望找到机器学习的证据。

我发现:具有更高有机搜索点击率的搜索结果会越来越高,并且会获得更多点击次数:

点击率只是查看机器学习算法影响的一种方法。今天,我们来看看另一个重要的参与指标:长时间点击,或者在离开SERP后长时间停留在现场的访问。

站点上的时间充当长点击的代理
您是否不相信长时间点击会影响有机搜索排名(无论是直接还是间接)?好吧,我想出了一个超级简单的方法,你可以向自己证明长按很重要 - 同时也揭示了机器学习算法的影响。

在今天的实验中,我们将在页面上测量时间。需要明确的是:页面上的时间与停留时间或长时间点击不同(或者,在他们点击后退按钮返回到他们找到您的搜索结果之前,人们在您的网站上停留多长时间)。

我们无法衡量Google Analytics中的长时间点击或停留时间。只有Google才能访问此数据。

页面上的时间对我们来说无关紧要。我们只关注页面上的时间,因为它很可能与这些指标成比例。

现场时间和有机交通(RankBrain之前)
要开始使用,请进入您的分析帐户。在新算法发挥作用之前选择一个时间范围(即2015年)。

细分您的内容报告以仅查看您的自然流量,然后按网页浏览进行排序。然后,您希望运行比较分析,将您的综合浏览量与页面上的平均时间进行比较。

你会看到这样的事情:

这32页在2015年推动了我们最有机的流量。这些页面的大约三分之二的网站停留时间高于平均水平,但是剩余的三分之一低于平均水平。

看到那些红色箭头?这些是驴 - 在有机搜索中排名很好的页面,但总的来说可能没有业务排名很好,至少对于那些带来最多流量的搜索查询。他们不在联盟中。页面上的时间是网站平均值的一半或三分之一。

现场时间和有机交通(RankBrain之后)
现在让我们做同样的分析。但是,当我们知道谷歌的机器学习算法正在使用时(例如,过去三四个月),我们将使用更近的时间段。

做同样的比较分析。你会看到这样的事情:

看我们分析有机流量时会发生什么。我们的首页中只有两个页面的平均时间高于平均水平。

这有点令人惊讶。那么发生了什么?


更长的停留时间=更高的搜索排名?
似乎谷歌的机器学习算法已经看透了那些曾经在2015年排名很好的网页,但实际上并不值得排名。而且,对我来说,看起来谷歌肯定会通过更突出的搜索位置奖励更长的停留时间。

谷歌检测到了大部分驴子(大约80%!),现在几乎所有拥有最多有机流量的网页都是现场时间的独角兽。

我不会告诉你WordStream网站上哪些页面是驴子,但我会告诉你,其中一些页面只是为了引入流量而创建的(任务:成功),与搜索意图的对齐并不是很好。可能有人创建了一个更好地匹配意图的页面。

事实上,这是一个例子:我们的AdWords评分员过去常常在第1页上对“google adwords”(搜索量巨大 - 每月超过300,000次搜索!)进行排名。意图匹配较低 - 搜索该短语的大多数人只是将其用作导航关键字,以访问AdWords网站。

这些搜索者中只有一小部分人可能只想了解更多有关Google AdWords的信息,以及使用Google作为查找维基百科页面的方式。查询中没有任何迹象表明他们可能正在寻找帮助他们诊断AdWords问题的工具。你猜怎么着?2015年,Grader页面是排名前30位的页面之一,但它的网站平均时间低于平均水平。

因此,在某些时候,Google测试了一个不同的结果来取代Grader - 我们关于Google AdWords如何运作的信息图。对于该搜索查询,它仍然在第1页上排名,并且它更好地匹配关键字的信息意图。

关于数据的几点注意事项
需要明确的是,我知道这些分析报告并没有直接显示排名的下降。对于报告中的差异还有其他可能的解释 - 也许我们创建了许多新的,超级棒的内容,这些内容是大批量关键词的排名,他们只是简单地取代了2015年的现场“驴”。此外,还有某些类型的网页可能在网站上的时间较短,这是出于完全可接受的原因(例如,它们可能会非常快速地提供用户想要的信息)。

但在内部,我们可以肯定地知道,在过去的几年里,我们的一些网站平均时间低于平均排名(再次,至少某些关键字)。

而且无论如何,看到推动整体有机流量最多的网页(WordStream网站有数千页)在网站上的平均时间超过平均时间非常引人注目。它强烈建议具有优秀的独角兽级别参与度量标准的网页对您的整体业务最有价值。

这份报告还揭示了一些对我们来说非常重要的东西:网站上平均时间低于平均值的页面是我们在SEO方面最容易受到攻击的页面。换句话说,上面第二个图表中仍然具有低于平均时间的两个剩余页面是最有可能在新机器学习世界中失去有机排名和流量的页面。

这份报告真是太棒了,你不需要做大量的研究或聘请SEO来进行广泛的审计。只需打开您的分析并自己查看数据。您应该能够比较很久以前的变化到最近的历史记录(过去三四个月)。

这是什么意思呢?
这份报告基本上就是你的驴探测器。它将向您展示可能最容易受到谷歌未来增量流量和搜索排名损失的内容。

这就是机器学习的工作原理。机器学习并不能在一夜之间消除所有流量(如熊猫或企鹅)。这是渐进的。

如果你有很多驴子内容,你该怎么办?

优先处理风险最高的页面 - 低于平均值或接近平均值的页面。如果这些网页没有足够的理由让网站的平均时间低于平均水平,请将这些网页放在列表顶部进行重写或修复,以便更好地与用户意图保持一致。

现在去查看您自己的数据,看看您是否同意在您的自然搜索排名中发挥作用。

不要只听我的话。去看看:运行自己的报告,让我知道你发现了什么。

All Posts
×

Almost done…

We just sent you an email. Please click the link in the email to confirm your subscription!

OKSubscriptions powered by Strikingly