Cómo la Búsqueda de Google entiende el lenguaje humano

Google explica cómo funcionan sus sistemas de inteligencia artificial para comprender el lenguaje humano y devolver resultados de búsqueda relevantes.

La Búsqueda de Google es capaz de comprender el lenguaje humano con la ayuda de múltiples modelos de IA que trabajan juntos para encontrar los resultados más relevantes.

La información sobre cómo funcionan estos modelos de IA se explica en términos simples por Pandu Nayak, vicepresidente de búsqueda de Google, en un nuevo artículo en el blog oficial de la compañía.

Nayak desmitifica los siguientes modelos de IA, que juegan un papel importante en la forma en que Google devuelve los resultados de búsqueda:

  • RankBrain
  • emparejamiento neuronal
  • BERT
  • MAMÁ

Ninguno de estos modelos funciona solo.. Todos se ayudan mutuamente realizando diferentes tareas para comprender las consultas y relacionarlas con el contenido que buscan los buscadores.

Estos son los puntos clave de la mirada detrás de escena de Google sobre lo que hacen sus modelos de IA y cómo todo se traduce en mejores resultados para los buscadores.

Explicación de los modelos de IA de Google

RankBrain

El primer sistema de inteligencia artificial de Google, RankBrain, se lanzó en 2015.

Como sugiere el nombre, el propósito de RankBrain es determinar el mejor orden para los resultados de búsqueda clasificándolos según su relevancia.

A pesar de ser el primer modelo de aprendizaje profundo de Google, RankBrain sigue desempeñando un papel importante en los resultados de búsqueda en la actualidad.

RankBrain ayuda a Google a comprender cómo las palabras de una consulta de búsqueda se relacionan con los conceptos del mundo real.

Nayak ilustra cómo funciona RankBrain:

“For example, if you search for ‘what’s the title of the consumer at the highest level of a food chain,’ our systems learn from seeing those words on various pages that the concept of a food chain may have to do with animals, and not human consumers.

By understanding and matching these words to their related concepts, RankBrain understands that you’re looking for what’s commonly referred to as an “apex predator.”

“Por ejemplo, si busca ‘cuál es el título del consumidor en el nivel más alto de una cadena alimentaria’, nuestros sistemas aprenden al ver esas palabras en varias páginas que el concepto de una cadena alimentaria puede tener que ver con animales, y

Al comprender y hacer coincidir estas palabras con sus conceptos relacionados, RankBrain entiende que está buscando lo que comúnmente se conoce como un «depredador ápice».

How Google Search Understands Human Language

Emparejamiento neuronal

Google introdujo la coincidencia neuronal con los resultados de búsqueda en 2018.

La coincidencia neuronal le permite a Google comprender cómo se relacionan las consultas con las páginas utilizando el conocimiento de los conceptos más amplios.

En lugar de buscar palabras clave individuales, la coincidencia neuronal examina consultas y páginas completas para identificar los conceptos que representan.

Con este modelo de IA, Google puede proyectar una red más amplia cuando escaneamos su índice en busca de contenido que sea relevante para una consulta.

Nayak ilustra cómo funciona la coincidencia neuronal:

“Take the search “insights how to manage a green,” for example. If a friend asked you this, you’d probably be stumped. But with neural matching, we’re able to make sense of it.

By looking at the broader representations of concepts in the query — management, leadership, personality and more — neural matching can decipher that this searcher is looking for management tips based on a popular, color-based personality guide.”

«Tome la búsqueda «perspectivas sobre cómo administrar un green», por ejemplo. Si un amigo te preguntara esto, probablemente estarías perplejo. Pero con la coincidencia neuronal, podemos darle sentido.

Al observar las representaciones más amplias de los conceptos en la consulta (administración, liderazgo, personalidad y más), la coincidencia neuronal puede descifrar que este buscador está buscando consejos de administración basados ​​en una popular guía de personalidad basada en colores”.

How Google Search Understands Human Language

BERT

BERT se introdujo por primera vez en 2019 y ahora se usa en todas las consultas.

Está diseñado para lograr dos cosas: recuperar contenido relevante y clasificarlo.

BERT puede entender cómo las palabras se relacionan entre sí cuando se usan en una secuencia particular, lo que garantiza que las palabras importantes no se queden fuera de una consulta.

Esta comprensión compleja del lenguaje permite que BERT clasifique el contenido web según su relevancia más rápido que otros modelos de IA.

Nayak ilustra cómo funciona BERT en la práctica:

“For example, if you search for “can you get medicine for someone pharmacy,” BERT understands that you’re trying to figure out if you can pick up medicine for someone else.

Before BERT, we took that short preposition for granted, mostly sharing results about how to fill a prescription. Thanks to BERT, we understand that even small words can have big meanings.”

“Por ejemplo, si busca “¿puede obtener medicamentos para alguien en la farmacia?” BERT entiende que está tratando de averiguar si puede recoger medicamentos para otra persona.

Antes de BERT, dábamos por sentada esa breve preposición, principalmente compartiendo resultados sobre cómo surtir una receta.. Gracias a BERT, entendemos que incluso las palabras pequeñas pueden tener grandes significados”.

How Google Search Understands Human Language

MAMÁ

El último hito de IA de Google en la búsqueda: el modelo unificado multitarea, o MUM, se presentó en 2021.

MUM es mil veces más potente que BERT y capaz tanto de comprender como de generar lenguaje.

Tiene una comprensión más completa de la información y el conocimiento del mundo, se entrena en 75 idiomas y realiza muchas tareas diferentes a la vez.

La comprensión del lenguaje de MUM abarca imágenes, texto y más en el futuro. Eso es lo que significa cuando escuchas que se hace referencia a MUM como «multimodal».

Google está en los primeros días de darse cuenta del potencial de MUM, por lo que su uso en la búsqueda es limitado.

Actualmente, MUM se está utilizando para mejorar las búsquedas de información sobre la vacuna COVID-19. En los próximos meses se utilizará en Google Lens como una forma de buscar mediante una combinación de texto e imágenes.

Resumen

Aquí hay un resumen de cuáles son los principales sistemas de IA de Google y qué hacen:

  • RankBrain: clasifica el contenido al comprender cómo las palabras clave se relacionan con los conceptos del mundo real.
  • Coincidencia neuronal: le da a Google una comprensión más amplia de los conceptos, lo que amplía la cantidad de contenido que Google puede buscar.
  • BERT: permite a Google comprender cómo las palabras pueden cambiar el significado de las consultas cuando se usan en una secuencia particular.
  • MUM: Comprende la información y el conocimiento del mundo a través de docenas de idiomas y múltiples modalidades, como texto e imágenes.

Todos estos sistemas de IA trabajan juntos para encontrar y clasificar el contenido más relevante para una consulta lo más rápido posible.

Fuente: Google Google

Imagen destacada: IgorGolovniov/Shutterstock

Leer el articulo original en Search Engine Journal.

¡Danos un Voto!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Tienes una pregunta?

Luis Narciso
Sobre SEO
(Posicionamiento Web)

Frank Fajardo
Sobre Diseño Web, Anuncios, Diseño y Redes Sociales