谷歌已经开始应用BERT(Bi Direction Encoder Representations from Transformers)算法模型。 BERT 是一个由 Google 预先训练的开源神经网络,用于更有效地执行自然语言处理 (NLP),这是我 印度电话号码 们表达自己的方式。到目前为止,谷歌是逐字分析搜索短语的。但现在,您将能够将每个单独的单词关联起来,并将它们关联起来,以了解用户在搜索中使用的短语的上下文。
BERT 帮助机器理解句子中单词的含义,同时了解上下文的所有细微差别。到目前为止,Google 搜索引擎省略了连接词(介词等),因为它们本身没有意义,但是一个简单的介词可以改变短语的上下文,从而改变搜索结果。
谷歌搜索副总裁潘杜·纳亚克 (Pandu Nayak) 10 月 25 日写道:“凭借我们的研究团队在语言理解科学领域通过机器学习取得的最新进展,我们正在显着改善我们理解查询的方式”,“这代表了我们最伟大的成就”。过去五年的进步,是搜索引擎历史上最伟大的进步之一。”
Pandu Nayak 本人向我们展示了一个真实的例子。 在 BERT 之前,搜索“2019 年从巴西前往美国需要签证”返回了一篇 关于从美国前往巴西的《华盛顿邮报》文章;搜索引擎不理解短语中介词“a”的重要性。使用 BERT,搜索引擎会返回美国驻巴西大使馆的网站作为第一个结果,具体来说,是有关巴西游客签证的页面:

BERT 对 B2B 领域的公司有何影响?
谷歌在自然语言理解方面正在迅速进步。在优化搜索引擎优化时,公司必须越来越多地像用户一样思考并为他们而不是为自己的公司编写内容。这一变化非常重要,因为 Google 致力于更好地理解用户的查询并将其与最相关的结果更好地匹配。此外,它还对公司的 SEO 进行了重要调整,因为所有查询的 10% 都受到了影响。更新,这在 SEO 中是一个很大的变化。