谷歌BERT:它是什么以及如何优化它

Trevin是WebFX高级业务发展总监.他参与了超过450个市场营销活动,20多年来一直在建立网站。他的作品曾被《搜索引擎之地》、《今日美国》、《快速公司》和《Inc.》收录。

听说过谷歌的新更新吗,BERT?如果你很喜欢,你可能会喜欢搜索引擎优化(SEO).搜索引擎优化世界对谷歌BERT的大肆宣传是合理的,因为BERT使搜索更多地关注单词背后的语义或含义,而不是单词本身。

换句话说,搜索意图比以往任何时候都更重要。谷歌最近更新的BERT影响SEO世界影响1 / 10的搜索查询,谷歌预测随着时间的推移,在更多的语言和地区中,这将会增加。由于BERT对搜索的巨大影响,拥有高质量的内容比以往任何时候都更重要。

为了使您的内容能够在BERT(以及搜索意图)上发挥最佳效果,在本文中,我们将讨论BERT如何与搜索一起工作,以及如何使用BERT为您的站点带来更多流量。想和SEO专家谈谈吗?联系WebFX

我们的数字营销活动影响改善的指标你的底线。

查看更多结果

WebFX为客户端带来了以下结果:

30亿美元

客户收入

780万年

为客户提供线索

520万年

客户的电话

伯特是什么?

BERT表示变形金刚的双向编码器表示。这是一个充满了机器学习专业术语的术语!

它的意思是:

  • 双向:BERT对句子同时进行双向编码
  • 编码器表示:BERT将句子翻译成它能理解的词义表示
  • 变形金刚:允许BERT对句子中的每个单词进行相对位置编码,因为上下文在很大程度上取决于词序(这是一种比记住句子是如何进入框架更有效的方法)

如果您要改写它,您可以说BERT使用变形器对目标单词两边的单词表示进行编码。从根本上说,这个名字意味着BERT是一种全新的、前所未有的、最先进的技术自然语言处理(NLP)算法框架。这种类型的结构为谷歌的人工智能增加了一层机器学习,旨在更好地理解人类语言。

换句话说,通过这次更新,谷歌的人工智能算法可以用比以往更高水平的人类语境理解和常识来阅读句子和查询。虽然它不能像人类那样理解语言,但它仍然是NLP在机器语言理解方面向前迈出的一大步。

伯特不是什么

谷歌BERT不会像之前的算法更新(如Penguin或Panda)那样改变网页的判断方式。它不会对页面进行正面或负面评级。相反,它改进了会话搜索查询的搜索结果,因此结果更好地匹配它们背后的意图。

伯特历史

BERT出现的时间比几个月前推出的BIG更新要长。自2018年10月该研究论文发表以来,自然学习处理(NLP)和机器学习(ML)社区一直在讨论它BERT:语言理解深度双向变形金刚的预训练出版了。不久之后,谷歌发布了一个开创性的、开源的NLP框架,该框架基于一篇论文,NLP社区可以使用它来研究NLP并将其纳入他们的项目。

从那时起,出现了一些新的基于或合并BERT的NLP框架,包括谷歌和丰田合并后的ALBERT、Facebook的RoBERTa、微软的MT-DNN和IBM的BERT-mtl。BERT在NLP社区引起的浪潮占了互联网上大部分的提及,但BERT在SEO世界里的提及正在获得吸引力。这是因为BERT专注于长尾查询中的语言,以及阅读网站,因为人类可以为搜索查询提供更好的结果。

BERT是如何工作的?

谷歌BERT是一个非常复杂的框架,理解它需要对NLP理论和过程进行多年的研究。SEO世界不需要这么深入,但是理解它在做什么以及为什么会这样,对于理解它将如何影响搜索结果是很有用的。

下面是谷歌BERT的工作原理:

谷歌伯特解释

以下是BERT如何看待句子或搜索查询的整个上下文:

  • BERT接受一个查询
  • 逐字分解
  • 看看单词之间所有可能的关系
  • 建立一个双向地图,在两个方向上概述单词之间的关系
  • 分析单词配对时的上下文含义。

好了,为了更好地理解这一点,我们来用这个例子:每一行都表示“熊猫”的意思如何改变句子中其他单词的意思,反之亦然。关系是双向的,所以箭头是双头的。当然,这是BERT如何看待上下文的一个非常非常简单的例子。

这个例子只考察了目标词“panda”和句子中其他有意义的部分之间的关系。而BERT则会分析句子中所有单词的上下文关系。这个图像可能更准确一些:

BERT的一个类比

BERT使用编码器和解码器来分析单词之间的关系。想象BERT作为一个翻译过程是如何工作的,这提供了一个很好的例子。你从一个输入开始,不管你想把什么句子翻译成另一种语言。

假设你想把上面的熊猫句子从英语翻译成韩语。BERT不懂英语和韩语,所以它用Encoders翻译“除了竹子,熊猫还吃什么?”转换成它能理解的语言。这种语言是它在分析语言的过程中为自己构建的语言(这就是编码器表示的作用)。

BERT根据单词的相对位置和对句子意义的重要性来标记单词。然后它将它们映射到一个抽象的向量上,从而创造出一种想象的语言。因此,BERT把我们的英语句子转换成它想象的语言,然后用解码器把想象的语言转换成韩语。

这个过程对于翻译来说非常棒,但它也提高了任何基于BERT的NLP模型正确解析语言歧义的能力,例如:

  • 代词的参考
  • 同义词和同音异义词
  • 或者有多个定义的单词,比如“run”

伯特是pre-trained

BERT是预先训练的,这意味着它有大量的学习。但是BERT与以前的NLP框架的一个不同之处在于,BERT是在纯文本上预先训练的。其他的NLP框架需要一个由语言学家煞费苦心地在语法上进行标记的单词数据库,以使单词有意义。

语言学家必须在数据库中标记每个单词的词性。这是一个严格而苛刻的过程,可能会在语言学家之间引发长篇大论的激烈争论。词性是很棘手的,尤其是当词性因为句子中的其他单词而发生变化的时候。

BERT自己完成了这项工作,而且是在没有监督的情况下完成的,这使它成为世界上第一个这样做的NLP框架。它是用维基百科训练的。这超过了25亿个单词!

BERT可能并不总是准确的,但是它分析的数据库越多,它的准确性就越高。

伯特是双向的

BERT对句子进行双向编码。简单地说,BERT在一个句子中找到一个目标词,然后从任何一个方向查看它周围的所有词。BERT的深度双向编码器在NLP框架中是独一无二的。

早期的NLP框架(如OpenAI GPT)只按一个方向编码句子,在OpenAI GPT中是从左到右。稍后的模型,如ELMo,可以同时训练目标词的左右两侧,但这些模型独立地将编码连接起来。这就导致了目标词两边上下文的脱节。

另一方面,BERT识别目标单词两边的所有单词的上下文,而且是同时完成的。这意味着它可以完全看到和理解单词的意义是如何影响整个句子的上下文的。单词之间的联系(即它们一起出现的频率)是语言学家所说的搭配。

搭配词是经常同时出现的词——例如,“Christmas”和“presents”经常出现在每个词的几个单词中。能够识别搭配有助于确定单词的意思。在我们前面的示例图像中,“trunk”可以有多种含义:

  • 树干:树的主干
  • 躯干:人或动物的躯干
  • 盛放旅行物品的大箱子
  • 大象能抓握东西的鼻子
  • 汽车的储物室

要确定这个句子中使用的单词的意思,唯一的方法就是看看周围的搭配。“低音炮”(Subwoofer)经常和“汽车”(car)一起出现,“行李箱”(trunk)也经常出现,所以根据上下文,“车辆存储隔间”的定义可能是正确的答案。这正是BERT看到一个句子时所做的。

它通过使用训练前学到的单词搭配来识别句子中每个单词的上下文。如果BERT朝一个方向读句子,就有可能错过在低音炮和行李箱之间识别“car”的共享配置。从整体上双向地看待句子的能力就能解决这个问题。

伯特使用变压器

BERT的双向编码函数变形金刚,这是有道理的。如果你还记得,BERT中的T代表变形金刚。谷歌标识BERT是他们的一个突破的结果研究变形金刚

谷歌将转换器定义为“处理与句子中所有其他单词相关的单词的模型,而不是按顺序逐个处理单词”。变形金刚使用编码器和解码器来处理句子中单词之间的关系。BERT提取句子中的每个单词,并给出该单词的含义。每个词的含义之间的关联程度由线条的饱和度来表示。

在下面的图片中,在左边,“它”与“动物”和“它”联系最紧密,在这个语境中识别“它”指的是什么。在右边,“它”与“街道”联系最为紧密。像这样的代词引用曾经是语言模型难以解决的主要问题之一,但是BERT可以做到这一点。自我关注图如果你是一个NLP爱好者,想知道变压器是什么以及它们是如何工作的细节,你可以看看这个视频这是基于一篇开创性的文章:注意力是你所需要的

这是一段很棒的视频,也是一篇优秀的论文(但说实话,我完全看不懂)。对于我们这些麻瓜来说,BERT背后的变形金刚的技术效果转化为谷歌搜索更好地理解搜索结果背后的背景,也就是用户意图。

BERT使用了掩蔽语言模型(MLM)

BERT的训练包括使用蒙面语言模型预测句子中的单词。它的作用是屏蔽句子中15%的单词,就像这样:

  • 除了吃竹子,[面具]还吃什么?

然后伯特要预测这个蒙面词是什么。这做了两件事:它在单词上下文中训练BERT,它提供了一种衡量BERT学习了多少的方法。屏蔽词阻止BERT学习复制和粘贴输入。

其他参数,如向右移动解码器,下一个句子的预测,或回答上下文,有时无法回答的问题,也可以这样做。BERT提供的输出将显示BERT正在学习并实现关于单词上下文的知识。

BERT影响什么?

这对搜索意味着什么?像BERT那样使用转换器双向映射查询是特别重要的。

这意味着算法考虑到了词语背后细微但有意义的细微差别,比如介词,这些细微差别可能会彻底改变查询的意图。以这两个不同的搜索页面结果为例。我们继续之前的熊猫和竹子主题。

关键字:

除了竹子,熊猫还吃什么

除了竹子,熊猫还吃什么

熊猫竹子

谷歌搜索熊猫竹子注意到结果页面非常相似吗?几乎一半的有机结果是相同的,人们也问(PAA)部分有一些非常相似的问题。不过,搜索的目的非常不同。

“熊猫竹”的含义非常广泛,所以很难确定它的意图,但它可能是想知道熊猫的竹子饮食。搜索页面很好地找到了这一点。另一方面,“熊猫除了吃竹子以外还吃什么”在搜索意图中是非常具体的,搜索页面上的结果完全忽略了。

唯一接近意图的结果可能是PAA的两个问题:

  • 熊猫吃什么肉?
  • 只吃竹子的大熊猫是如何生存的?

Quora上有两个问题,其中一个很有趣:

  • 熊猫能被训练得吃竹子以外的食物吗?
  • 熊猫吃人吗?

瘦的衣服。在这个搜索查询中,单词“other than”在搜索意图的含义中扮演着重要的角色。在BERT更新之前,谷歌的算法在返回信息时通常会忽略函数/填充词,如“other than”。

这导致搜索页面无法匹配这样的搜索意图。由于BERT只影响10%的搜索查询,所以在撰写本文时,左侧页面没有受到BERT的影响也就不足为奇了。这个示例是谷歌提供的伯特解释页面显示BERT如何影响搜索结果:你能在用药前后帮别人拿药吗

有特色的片段

BERT最重要的影响之一将是精选片段。特色片段是有机的,依赖于机器学习算法,BERT完全符合要求。有特色的片段结果通常从第一个搜索结果页面,但现在可能有一些例外。

因为它们是有机的,很多因素可以让它们发生变化,包括BERT这样的新算法更新。使用BERT,影响特色片段的算法可以更好地分析搜索查询背后的意图,并更好地匹配搜索结果。BERT也有可能获得冗长的结果文本,找到核心概念,并将内容总结为具有特色的片段。

国际搜索引擎

由于语言有相似的潜在语法规则,BERT可以提高翻译的准确性。每次BERT学习翻译一种新的语言,它就获得了新的语言技能。这些技能可以帮助BERT以前所未有的更高精度翻译语言。

我如何优化我的网站BERT?

现在我们进入了一个大问题:如何优化谷歌BERT?简短的回答吗?

你不能。BERT是一个AI框架。它通过每一个新的信息来学习。

它处理信息和做出决策的速度意味着即使是BERT的开发人员也无法预测BERT将做出的选择。很可能,BERT甚至不知道它为什么会做出这样的决定。如果它不知道,那么seo就不能直接对它进行优化。

但是,你能做的是在搜索页面中排名,继续生产满足搜索意图的人性化内容。BERT的目的是帮助谷歌理解用户意图,因此针对用户意图的优化也会针对BERT进行优化。

  • 所以,做你一直在做的事情。
  • 研究你的目标关键词。
  • 关注用户,生成他们想要看到的内容。

最后,当你写内容的时候,问自己:

  • 我的读者能在我的内容中找到他们想要的吗?

用WebFX让你的网站做好准备!

WebFX如何让您的网站完美的谷歌BERT?WebFX是一个全方位服务的数字营销公司

25年来,我们一直在优化业务。拥有超过450名专业的内容写作专家,我们将让您的网站走上正轨匹配搜索意图的内容任何你想要的关键字。我们SEO高手

在线联系我们或致电888-601-5359学习更多!

WebFX职业

加入我们的使命,为全球企业提供行业领先的数字营销服务——同时建立您的个人知识和个人成长。

我们招聘! 视图30 +职位空缺!