Return to site

清理你的网站之前它导致排名问题

我们都拥有它。残酷的。我们网站上的低质量甚至是重复内容页面,我们还没有时间查找和清理。它似乎无害,但这可能只会损害整个网站的排名潜力。在今天的文章中为您提供了一些动力,向您展示如何寻找和照顾您网站上的残骸。

我们正在聊聊从你的网站上清理残余物。我的意思是低质量,薄的质量,重复的内容类型的页面,即使它们今天似乎没有引起问题,也可能导致问题。

什么是残酷的?

例如,如果您要发布大量低质量的网页,Google认为质量较差的网页,用户没有与之互动,那么您可能会发现自己陷入了严重的困境,而且原因。谷歌,是的,当然他们会逐页查看内容,但他们也在考虑域内的事情。

所以他们可能会看一个域名,看到很多这些绿色页面,高质量,高性能的页面和独特的内容,正是你想要的。但随后他们会看到这些粉红色和橙色的内容,薄的内容页面具有较低的参与度,似乎表现不佳,重复的内容页面尚未对它们进行适当的规范化。这就是我所说的这两件事,其中有许多变化可以适应这些。

但是,有一个问题可能会导致熊猫问题。所以谷歌的熊猫算法旨在查看一个网站并说:“你知道吗?你正在倾向于高质量网站对我们的看法。我们在网站上看到太多低质量的网页,因此我们不仅会损害低质量网页的排名能力,我们还会伤害整个网站。“ 非常有问题,真的,非常具有挑战性,许多人随着时间的推移遇到了熊猫问题。

还有其他可能非直接的熊猫类相关的东西,比如网站范围内的分析,比如算法看待参与度和质量。因此,例如,最近对Google所做的Phantom II更新进行了分析,其中并没有真正形式化,Google也没有对此做过任何说明。但他们在Phantom更新中看到的一件事就是网站上的页面受到了伤害,而网站上的页面参与受益,并且您看到了清晰的模式。受益的网站的参与度往往更高。对那些受伤的人来说,往往会更低。再说一次,它可能不只是熊猫,而是其他会伤害你的东西。

它可以浪费爬行带宽,这很糟糕。特别是如果你有一个大型网站或复杂网站,如果引擎必须抓取一堆粗糙的网页,那么抓取带宽的可能性就会降低,而且爬网到好网页的更新频率也会降低。

从用户的角度来看,它也会受到伤害。用户的幸福感可能会降低,这可能会影响您的品牌认知度。它还可以降低转换页面的效果。Google并不总是如此完美。他们可以看到其中一些重复的内容,其中一些内容页面很薄,页面效果不佳,仍然排在你希望排名的页面之前,高质量的页面具有良好的转换率,良好的参与度,而且只是为了你的转换漏斗。

所以这里有各种各样的问题,这就是为什么我们想要尝试主动清理这个问题。这是SEO审核过程的一部分。如果您查看站点审核文档,如果您查看站点审核软件或逐步操作方法,例如我们在Moz使用的Annie,您将看到此问题得到解决。

我如何识别我网站上的内容?

那么让我们来谈谈一些主动识别残骸的方法,然后讨论我们之后应该做些什么的一些提示。

过滤掉了!

无论您的分析系统是什么,确保很多人使用的方法之一是Google Analytics或Omniture或Webtrends。您正在尝试设计的是一个过滤器。所以我得到了我的小过滤器。我把所有好的页面放在里面,然后我过滤掉低质量的页面。

我可以使用的是两件事之一。首先,反弹或跳出率或网站停留时间或每次访问页数的阈值,我喜欢的任何类型的参与度量标准,我可以将其用作潜在的过滤器。我也可以做一些百分比,这意味着在场景一中,我基本上会说,“嘿,门槛是反弹率高于90%的任何东西,我希望我的过滤器向我展示那里发生了什么。” 我在GA内部或Omniture内部创建了这个过滤器。我会查看符合该标准的所有页面,然后我会尝试查看它们出了什么问题并修复它们。

第二个基本上是我说的,“嘿,这是网站的平均时间,这里是网站的平均时间,这里是平均跳出率,中位跳出率,每次访问的平均页数,中位数,很棒。现在我需要50%以下那个或一个标准偏差低于那个。现在告诉我所有那些东西,过滤掉它。“

这个过程将捕捉薄而低质量的页面,我用粉红色向你展示的页面。它不会抓住橙色的。重复的内容页面可能与它们重复的内容非常相似。所以这个过程对其中一个有帮助,对其他人没那么有用。

把那个扯掉!

对于这个过程,你可能想要使用Screaming Frog或OnPage.org这个很棒的工具,或Moz Analytics,来自我听说过的一些公司。

基本上,在这种情况下,你有一个基本上看过滤的重要分类器,你可以识别的东西,如URL字符串或匹配的标题元素或匹配的内容,这些类型的东西,所以你可能会使用重复的内容过滤器。这些软件中的大多数已经具有默认设置。在其中一些你可以改变它。我认为OnPage.org和Screaming Frog都允许您更改重复内容过滤器。Moz Analytics与谷歌网站管理员工具不同,现在是搜索控制台,我将在一秒钟内讨论。

所以我可能会说,“嘿,找出任何超过80%的重复内容。” 或者,如果我知道我的网站上有很多页面只有少量图片和一点点文字,但很多导航和HTML就可以了,好吧,也许我会将其提高到90%或者甚至95%依赖。

我还可以使用一些规则来识别已知的重复内容违规者。例如,如果我发现所有带问号的内容都等于弹跳或某事或合作伙伴。好吧,好吧,现在我只需要过滤掉那个特定的URL字符串,或者我可以查找标题。因此,如果我知道,例如,我的一个页面在整个网站或某种类型中被大量复制,我可以查找包含这些页面的所有标题,然后过滤掉欺骗。

我也可以为内容长度这样做。许多人会看内容长度并说:“嘿,如果我的博客上有一个少于50个独特单词的页面,请向我展示。我想找出原因,然后我可能想做有些人在那些页面上工作。“

询问SERP提供商(谨慎)

然后,我们可以为此识别过程执行的最后一个是Google和Bing网站管理员工具/搜索控制台。他们现有的过滤器和功能不具备可塑性。我们不能对它们做很多事情,但它们会向您显示潜在的网站抓取问题,破坏的网页,有时甚至是欺骗性内容。他们不会抓住一切。这个过程的一部分是在Google找到它们之前主动找到它们,Bing发现它们并开始在我们的网站上考虑它们。因此,在我们开始之前,我们可能想要做一些这样的工作,“哦,我们只是将一个XML站点地图推送给Google,让他们抓取所有内容,然后他们会告诉我们什么是坏的。” 有点风险。

其他提示,技巧和机器人

他们可以通过GA或Omniture或Webtrends等一些额外的提示,分析统计数据来完全误导您,特别是对于访问次数很少的网页,您只是没有足够的样本集来了解它们是如何执行或尚未编制索引的引擎。因此,如果某些内容尚未被编入索引,或者只是没有获得搜索流量,那么它可能会向您显示有关用户如何与其进行互动的误导性指标,这可能会使您不希望出现偏见。所以要注意这一点。您可以通过查看其他统计信息或使用这些其他方法来控制它。

当你这样做时,你应该做的第一件事就是你识别cruft时,将其从XML站点地图中删除。这只是良好的卫生习惯,良好的做法。通常情况下,至少有一些预防措施可以在这里受到伤害。

但是,在不将其包含在XML站点地图中之后,没有一种适合所有方法的方法。如果它是重复的,你想要规范它。我不想删除所有这些页面。也许我想删除其中一些,但我需要考虑到这一点。也许他们是打印机友好的页面。也许他们是具有特定格式的页面。它是PDF版本而不是HTML版本。无论它是什么,你想要识别那些并且可能是规范化的。

对没有人有用吗?就像字面意思一样,绝对没有人。你不希望引擎访问。你不希望有人访问它。您无法关注该网页获取流量的渠道。那你有两个选择 - 301它。如果它已经针对某些内容进行了排名,或者它是关于某些内容的主题,请将其发送到您希望流量可以正常运行的页面,或者您可以完全404它。当然,如果您遇到严重问题或者您需要尽快从引擎中删除它,您可以使用410永久删除。小心一点。

对一些访问者有用,但对搜索引擎不是吗?就像你不希望搜索者在引擎中找到它一样,但是如果有人去了并且正在翻阅一堆页面和那种东西,好吧,很好,我可以不使用索引,在元机器人标签中跟随它一页

如果没有理由机器人应该访问它,就像你不关心它们的链接,这是一个非常罕见的用例,但可能有某些类型的内部内容,也许你不想要机器人即使尝试访问,就像一个巨大的内部文件系统,特定种类的访问者可能想要访问但没有其他人,您可以使用robots.txt文件阻止抓取工具访问它。请注意,如果它在robots.txt中被阻止,它仍然可以进入引擎。它只是不会显示任何描述。他们会说,“我们没有显示此页面的网站描述,因为它被机器人阻止了。”

如果页面几乎是好的,就像它在粉红色和绿色的边界线上一样,那就好了。解决它。使该页面成为赢家,将其恢复到引擎中,确保其运行良好,找到所有具有这些问题的页面,修复它们或考虑重新创建它们,然后如果您想这样做则将它们翻过来。

通过这个过程,希望您可以防止自己受到潜在的惩罚,或通过算法过滤,或者只是被识别为不是一个伟大的网站。您希望Google尽可能高质量地考虑您的网站。您希望访问者也能这样做,这个过程可以真正帮助您实现这一目标。

All Posts
×

Almost done…

We just sent you an email. Please click the link in the email to confirm your subscription!

OKSubscriptions powered by Strikingly