回到主页

seo网站建设|Google优化:Robots.txt阻止的网页会在链接到的时候被编入索引

seo网站建设

Google的John Mueller警告说,如果有链接指向他们,robots.txt阻止的网页仍然可以被编入索引。

这可能会成为一个问题,因为谷歌优化会将这些网页视为没有内容,因为它被阻止被抓取。

Mueller说,如果您的网站上有内容,您不希望Google看到,那么最好的做法是使用noindex元标记。

当网站所有者询问是否足以“禁止”不需要编制索引的网页时,会在最近的网站管理员中心环聊期间出现此主题。

穆勒的全部回复转录如下:

准备好了解如何制作有效的PPC广告?
下载SEJ指南,PPC 101:按点击付费营销基础的完整指南,了解PPC关键字,广告文案,广告定位等方面的最佳做法!

“有一件事可能要记住,如果这些页面被robots.txt阻止,那么理论上可能会发生某人随机链接到其中一个页面。如果他们这样做,那么我们可能会在没有任何内容的情况下对此网址编制索引,因为它被robots.txt阻止。因此,我们不知道您不希望这些页面实际编入索引。

然而,如果它们没有被robots.txt阻止,您可以在这些页面上放置一个noindex元标记。如果有人碰巧链接到他们,我们碰巧抓住了这个链接,并认为“这里可能有一些有用的东西”,那么我们就会知道这些页面不需要编入索引,我们可以完全跳过索引。

因此,在这方面,如果您在这些页面上有任何您不希望编入索引的内容,请不要禁止它们,请改用noindex。“

所有文章
×

还剩一步!

确认邮件已发至你的邮箱。 请点击邮件中的确认链接,完成订阅。

好的