O Google está tornando seu mecanismo de pesquisa mais inteligente

[ad_1]

Sem surpresa, o aprendizado de máquina está por trás da atualização.

O que você precisa saber

  • O Google está empregando suas habilidades de aprendizado de máquina para tornar a pesquisa mais inteligente.
  • O mecanismo de pesquisa entenderá melhor a linguagem conversacional além de apenas palavras-chave.
  • A empresa diz que é um dos maiores saltos adiante na pesquisa.

O Pandu Nayak do Google levou ao seu blog esta semana para anunciar o que ele diz ser "o maior salto em frente [in search] nos últimos cinco anos e um dos maiores saltos à frente nos EUA". histórico de pesquisa ". A atualização tem a ver com a forma como a Pesquisa Google processa suas consultas.

Nayak aponta para o uso das pessoas do que ele chama de "palavra-chave-ese" ao pesquisar no Google por causa da incapacidade do mecanismo de busca de entender a linguagem natural empregando o uso de qualificadores como "de" e "para". De fato, da maneira como a pesquisa atualmente funciona, o serviço basicamente ignora esses termos e tende a se concentrar apenas nas palavras-chave que identifica em sua consulta.

Isso mudará em breve – pelo menos para consultas em inglês nos EUA, com mais idiomas e localidades a seguir posteriormente. Combinando os mais recentes avanços em redes neurais para processamento de linguagem natural e hardware especializado, o Google alega que agora pode entender o contexto de cada palavra em uma consulta muito melhor em relação a toda a frase de pesquisa. Em última análise, isso significa que ele pode finalmente começar a entender o significado de qualificadores essenciais como 'para' e 'de' em uma frase, em vez de ignorá-los completamente.

Tudo isso é possível graças a BERT – não, não o geólogo de Thie Big Bang Theory mas, ao contrário, Representações de codificadores bidirecionais de Transformers – que é a técnica do Google para treinar redes neurais para entender palavras em relação para a frase inteira. Anteriormente, os algoritmos do gigante das buscas tendiam a exegetar os termos de pesquisa de maneira amplamente linear, entendendo uma palavra apenas em relação às seguintes.

Do lado do hardware, o Google também permite o uso de TPUs na nuvem – basicamente chips feitos com o único objetivo de treinar a IA em redes neurais – para consultas de pesquisa pela primeira vez, a fim de lidar melhor com toda a complexidade algorítmica BERT está cozinhando.

O resultado final de toda essa labuta? O Google fornece o exemplo acima de como o BERT pode melhorar significativamente os resultados da pesquisa e permitir que você se comunique com o mecanismo de pesquisa com mais naturalidade. Graças ao seu melhor entendimento da preposição 'to' na consulta, o Google agora sabe que o usuário é brasileiro e quer viajar para os EUA. A variante mais antiga e menos sofisticada da Pesquisa do Google entenderia exatamente o oposto e foi buscada informações sobre cidadãos americanos que desejam viajar para o Brasil.

É uma diferença sutil, mas significa o mundo. E o Google planeja trazer essas melhorias para o resto do mundo. Graças a como as redes neurais funcionam, Nayak diz que muitas das coisas que aprenderam usando o BERT no inglês podem realmente ser aplicadas a outros idiomas. O Google já está testando pequenos trechos de pesquisa do BERT para coreano, hindi e português, e está vendo melhorias significativas.

A página de resultados de pesquisa do Google está recebendo um pequeno toque de cor



[ad_2]

Source link



Os comentários estão desativados.