回到主页

如何在20(分钟)分钟内使用尖叫青蛙生成内容创意

内容相关营销学科的稳步增长以及有效搜索引擎优化和内容之间的联系越来越紧密,这使得利用战略内容的好处比以往任何时候都更加清晰。但是,成功并不总是那么容易。这通常很难,因为我相信很多人都知道。

一个许多挑战必须克服,从终端到年底实现成功,并找到快速的方法,以保持内容新鲜的想法和有关是无价的。为了帮助制定战略内容的这一方面,我在下面列出了一个流程,展示了一些SEO工具和一些创造力如何帮助您根据受众在线实际对话来识别内容创意。

你需要什么

尖叫青蛙你需要的第一件事是Screaming Frog(SF)和许可证。幸运的是,它并不昂贵(一年大约150美元/美元),如果您不熟悉该计划,还有许多教程。下载并设置完成后,您就可以开始工作了。

Google AdWords帐户:由于实际在其中投放广告,大多数人都可以访问AdWords帐户。如果您不熟悉AdWords系统,您仍然可以免费创建帐户并使用这些工具,尽管这一过程多年来变得更加烦人。

Excel / Google Drive(表格):任何一个都可以。您需要处理SF之外的数据。

浏览器:我们使用Chrome浏览以下示例。

这个概念

收集内容构思的一种方法是汇总目标受众所谈论内容的数据。有很多方法可以做到这一点,包括利用搜索数据,但它落后于实时社交讨论,我们拥有的各种工具作为SEO,很少在没有大量猴子业务的情况下展示全貌。在某些情况下,确定意图可能很棘手,需要进一步挖掘和研究。另一方面,收集社交对话的信息也不一定快(Twitter线程,Facebook讨论等),并且为增强此过程而构建的许多工具成本过高。

但是,如果您能够有效地发现数百个特定主题,长尾查询,问题以及您的受众正在谈论的更多内容,并且您可以在大约20分钟的重点工作中完成该怎么办?那会很甜蜜吧?好吧,可以通过使用SF来抓取您的观众在论坛,博客,问答网站等网站上进行的讨论。

还在?好,我们这样做。

这个过程 第1步 - 确定目标

您需要做的第一件事是确定理想受众讨论与您的行业相关主题的位置。虽然您可能已经很清楚这些地方的位置,但扩展您的列表或识别与受众特定细分相匹配的网站可能非常有价值。为了完成此任务,我将使用Google的展示广告规划师。出于本文的目的,我将介绍这个过程,在Home and Garden垂直中构建一个假装内容驱动的站点。

请注意,Google或其他搜索引擎中的搜索也可能是此过程的一个有用部分,特别是如果您熟悉高级操作员并且可以识别具有明显签名的平台,您的垂直站点通常用于社区区域。WordPress和vBulletin就是其中的例子。

谷歌的展示策划者

在开始之前,我要说明我不会就如何使用多媒体广告策划的时间缘故深层去,因为有若干的资源涵盖了话题。如果你不熟悉它,或者至少做一些简短的动手实验,我强烈建议你阅读一些背景知识。

我首先会在Google的展示广告规划师中查找选项,方法是输入与我的网站相关的关键字以及我的观众感兴趣的主题。我将使用单词“园艺”。在下面的屏幕截图中,我从页面中间的菜单中选择了“个人定位创意”,然后选择了“网站”。这使我可以看到系统认为匹配的特定网站使用我的定位参数。

然后,我将选择最高结果,以查看与网站相关的各种信息,包括人口统计信息和主要主题。请注意,我可以通过在“广告系列定位”下使用屏幕左侧的过滤器进一步优化我的搜索结果。现在,我对结果感到满意,并且不会打扰调整这些。

第2步 - 设置尖叫青蛙

接下来,我将获取网站网址并在Chrome中打开它。

一旦进入网站,我需要首先确认网站的一部分正在进行讨论。通常,您将寻找论坛,留言板,文章或博客帖子的评论部分等。基本上,用户交互的任何地方都可以工作,具体取决于您的目标。

在这种情况下,我很幸运。我的第一个目标是“园艺问题”部分,它本质上是一个留言板。

快速浏览一些线程名称可以看到提出的各种问题以及可以使用的大量线程。围绕这个的具体参数取决于你 - 只是一个简单的判断调用。

现在有趣的兼职 - 点燃尖叫青蛙!

我将使用此处的“自定义提取”功能:

配置→自定义→提取

...在SF中(您可以在此处找到更多详细信息和更广泛的用例文档集)。利用自定义提取将允许我从一组页面中获取特定文本(或其他元素)。

配置提取参数

我将从配置提取参数开始。

在这个镜头中,我打开了自定义提取设置,并将第一个提取器设置为XPath。我需要设置多个提取器,因为需要抓取同一URL上的多个线程标题。您可以简单地将代码剪切并粘贴到下一个提取器中 - 但请务必更新末尾的数字序列(以橙色标出),以避免反复获取相同的信息。

另请注意,我已将提取类型设置为“提取文本”。这通常是获取所需信息的最简洁方法,但如果您在获取所需数据时遇到问题,则可能需要对其他选项进行实验。

提示:当您处理此问题时,您可能会发现需要抓取HTML的不同部分而不是您的想法。获取所有内容的过程可能需要一些反复试验(下面有更多内容)。

抓取Xpath代码

要获取我们需要的实际提取代码(在上面的中间框中可见):

  1. 使用Chrome
  2. 导航到包含您要捕获的内容的URL
  3. 右键单击要抓取的文本,然后选择“检查”或“检查元素”

确保在代码视图中看到要突出显示的文本,然后右键单击并选择“XPath”(您可以使用其他选项,但我建议先查看上面提到的SF文档)。

值得注意的是,很多时候,当您尝试获取所需文本的XPath时,您实际上需要选择在网站前端视图中选择的文本上一级的HTML元素(第三步)以上)。

此时,运行非常简短的测试爬网以确保提取所需信息并不是一个坏主意。去做这个:

  1. 在复制XPath信息的页面的URL上启动爬网程序
  2. 大约10-15秒后停止爬行并导航到SF的“自定义”选项卡,将过滤器设置为“提取”(如果以某种方式调整命名,则设置不同的东西),并在提取器字段中查找数据(滚动)对)。如果这样做的话,我会看到我想要抓取的第一个网址旁边的文字。答对了。
解决提取问题并控制爬网

从表面上看,我的例子中的一切看起来都很好。但是,您可能会注意到,列出的其他URL没有提取文本。当代码在某些页面上略有不同,或者SF移动到其他站点部分时,可能会发生这种情况。我有几个选项可以解决此问题:

  1. 爬行其他批次的页面,分别遍历同一个过程,但调整后的XPath代码取自其他一个URL。
  2. 切换到使用正则表达式或XPath之外的其他选项来帮助扩大参数并可能捕获我在其他页面上的信息。
  3. 完全忽略页面并将其从爬网中排除。

在这种情况下,我将根据我当前的设置排除我无法提取信息的页面,并将SF锁定到我们想要的内容中。这可能是另一个实验点,但如果出现问题,您不需要太多经验就可以了解您想要的方向。

为了将SF锁定到我想要数据的URL,我将使用“配置”菜单项下的“包含”和“排除”选项。我将从包含选项开始。

在这里,我可以将SF配置为仅使用正则表达式对站点上的特定URL进行爬网。在这种情况下,需要的是相当简单的 - 我只想在/ questions /子文件夹中包含任何内容,这是我最初找到我想要抓取的内容的地方。一个参数就是所需要的,它恰好匹配SF given中给出的示例:

  • http://www.site.com/questions/.*

“排除”是事情变得轻微(但只是略微)变得棘手的地方。

在初始爬网过程中,我注意到SF没有从中提取信息的一些URL。在这种情况下,这些页面整齐地隐藏在各种子文件夹中。只要我能找到并适当地定义它们,这就使排除变得容易。

为了删除这些文件夹,我将以下行添加到排除过滤器:

  • http://www.site.com/question/archive/.*
  • http://www.site.com/question/show/.*

经过进一步测试,我发现我还需要排除以下文件夹:

  • http://www.site.com/question/genus/.*
  • http://www.site.com/question/popular/.*

值得注意的是,您无需通过配置SF的这一部分来获取所需的数据。如果松散SF,它将抓取start文件夹中的所有内容,其中还包括我想要的数据。从爬行的角度来看,上述改进效率更高,也减少了我成为网站害虫的机会。玩得很好很好。

完成爬网和提取示例

现在看来我已经抓到了爬行的东西:

现在我99.9%好好去!最后一次抓取配置是为了降低速度以避免对网站产生负面影响(或受到限制)。这可以通过转到配置→速度并减少可以爬网的线程数和URI数来轻松完成。我通常坚持使用5个线程或2个URI以下的东西。

第3步 - 分析数据的想法

达到最终目标(运行时间,爬网URI等)后,就可以停止爬网并继续进行数据分析。有很多方法可以开始分解所获得的信息,这可能会有所帮助,但是现在我将介绍一种方法,其中包含几种变体。

识别流行的单词和短语

我的目标是帮助生成内容创意,并识别目标受众在社交环境中使用的单词和短语。为此,我将使用一些简单的工具来帮助我分解我的信息:

  1. http://tagcrowd.com/
  2. http://www.online-utility.org/
  3. 高强

前两个URL执行文本分析,有些人可能已经熟悉tagcrowd.com的基本词云生成功能。Online-Utility不会提供漂亮的视觉效果,但它提供了常见的2到8个单词短语的有用突破,以及单个单词的出现次数。有许多工具可以执行这些功能; 如果这些不起作用,找到你最喜欢的那些!

我将从Tagcrowd.com开始。

利用Tagcrowd进行分析

我需要做的第一件事就是导出从SF中抓取的数据的.csv,并将所有提取器数据列合并为一个。然后,我可以删除空行,然后擦洗我的数据。通常,我会删除以下内容:

  1. 标点
  2. 额外的空间(Excel“修剪”功能通常很有效)
  3. 奇怪的人物

现在我有一个没有额外字符和奇数空格的干净数据集,我将复制该列并将其粘贴到纯文本编辑器中以删除格式。我经常在editpad.org上在线使用。

这让我想到了这个:

在Editpad中,您可以轻松复制干净的数据并将其粘贴到Tagcrowd的输入框中。一旦你完成了,点击可视化,你就在那里。

Tagcrowd.com

可以在Tagcrowd中编辑下面的一些设置,例如最小字出现,类似的字分组等。我通常使用2的最小字出现,这样我有一定的频率级别并且消除了杂乱,我用过这个例子。您可以根据要查看的单词数设置更高的阈值。

在我的例子中,我突出了云中的一些有些信息的项目。

显然,关于“鲜花”,“种子”,以及“识别”和“身份证”等词语的讨论相当多。虽然我毫不怀疑我的园艺样本网站已经在讨论大多数这些主要话题,如鲜花,种子,和树木一样,也许他们还没有意识到识别的常见问题。这一项可能会带来一个新的内容创意世界。

在我的示例中,我没有非常深入地抓取我的示例站点,因此我的数据相当有限。更深入的抓取将产生更有趣的结果,并且您可能已经意识到在这个示例中,在各个季节中爬行可以突出显示当前对于园丁重要的主题和问题。

同样有趣的是,“请”这个词出现了。许多人可能会忽略这一点,但对我来说,这可能是一个关于我正在处理的目标市场的沟通方式的微妙信号。这是礼貌和友好的语言,我愿意打赌不会出现在许多其他垂直行业的留言板和论坛上。通常,除了理解此类研究中的热门话题之外,最重要的见解是更好地理解您的受众使用的沟通方式,措辞和更多内容。所有这些信息都可以帮助您制定连接,内容和外展的策略。

利用Online-Utility.org进行分析

由于我已经为Tagcrowd清理并准备了我的数据,因此我可以将其粘贴到Online-Utility输入框中并点击“过程文本”。

完成此操作后,我们最终得到了这个输出:

有更多的信息,但为了空间,我只抓了几个镜头,让你了解你将看到的大部分内容。

请注意,在第一张图片中,短语“识别这种植物”和“这是什么”在我抓到的内容中都出现了多次,进一步支持围绕植物识别开发内容的可能性是一个好主意,似乎是需求。

利用Excel进行分析

让我们快速浏览另一种分析数据的方法。

消化信息的最简单方法之一是在Excel中。在对数据进行清理并将其组合成一列之后,简单的A→Z排序将信息放入一种有助于使模式变亮的格式。

在这里,我可以看到一系列适合内容开发的特定问题!此类信息与来自keywordtool.io等工具的数据相结合,可以帮助识别和捕获长尾搜索流量和感兴趣的主题,否则这些主题将被隐藏。

提示:以这种方式提取信息可以为您提供非常简单的促销机会。如果您构建了回答其中一个问题的精彩内容,请在您抓取的网站上分享回来!如果你开发的内容真的是一种资产,那就没有什么可以提供一个很好的答案,并提供更多信息的链接。

值得注意的是,由于该网站是通过展示规划师发现的,因此我已经掌握了可能发布这些问题的人的人口统计信息。我还可以利用Facebook上强大的广告工具,更多地研究谁对这个品牌感兴趣(并可能发布这类内容)。

此信息可让我快速将人口统计信息与内容提示和关键字相关联。

虽然意图被证明是非常强大的,并且有时会超过错位的消息传递,但是很高兴知道你正在与谁交谈并且能够为他们提供消息。

把它包起来

这只是一个开始,理解这一点很重要。

这个过程的真正强大之处在于它使用简单,经济实惠的工具来有效地获取信息 - 让团队中的许多人都可以访问它,并且无论您的组织规模如何,都可以轻松卖给持有钱包的人。这个过程对于中型和小型企业来说是可以承受的,并且不太可能导致等待企业级别的大量购买。

收集哪些信息以及如何分析这些信息可能会有很大差异,即使在我声明的生成内容创意的目标中也是如此。所有这一切都是正确的。这种方法的变化很多,允许创意问题解决者和思考者轻松收集数据,使他们能够深入了解受众的需求,需求,心理特征,人口统计等。

有创意,快乐的爬行!

所有文章
×

还剩一步!

确认邮件已发至你的邮箱。 请点击邮件中的确认链接,完成订阅。

好的