Google Bard: todo lo que necesitas saber

Bard es un chatbot generativo de IA impulsado por LaMDA Comprender Bard y cómo podría integrarse con la búsqueda es esencial para cualquier persona en SEO o publicación en línea.

Google acaba de lanzar Bard, su respuesta a ChatGPT, y los usuarios lo están conociendo para ver cómo se compara con el chatbot impulsado por inteligencia artificial de OpenAI.

El nombre ‘Bard’ está puramente impulsado por el marketing, ya que no hay algoritmos llamados Bard, pero sabemos que el chatbot funciona con LaMDA.

Aquí está todo lo que sabemos sobre Bard hasta ahora y algunas investigaciones interesantes que pueden ofrecer una idea del tipo de algoritmos que pueden impulsar a Bard.

¿Qué es Google Bard?

Bard es un chatbot experimental de Google que funciona con el modelo de lenguaje grande LaMDA.

Es una IA generativa que acepta indicaciones y realiza tareas basadas en texto, como proporcionar respuestas y resúmenes y crear diversas formas de contenido.

Bard también ayuda a explorar temas al resumir la información que se encuentra en Internet y proporcionar enlaces para explorar sitios web con más información.

¿Por qué Google lanzó Bard?

Google lanzó Bard después del exitoso lanzamiento de ChatGPT de OpenAI, que creó la percepción de que Google se estaba quedando atrás tecnológicamente.

ChatGPT fue percibido como una tecnología revolucionaria con el potencial de interrumpir la industria de búsqueda y alejar el equilibrio de poder de la búsqueda de Google y el lucrativo negocio de publicidad de búsqueda.

El 21 de diciembre de 2022, tres semanas después del lanzamiento de ChatGPT, el New York Times informó que Google había declarado un “código rojo” para definir rápidamente su respuesta a la amenaza que suponía su modelo de negocio. New York Times

Cuarenta y siete días después del ajuste de la estrategia del código rojo, Google anunció el lanzamiento de Bard el 6 de febrero de 2023.

¿Cuál fue el problema con Google Bard?

El anuncio de Bard fue un fracaso rotundo porque la demostración que pretendía mostrar la IA del chatbot de Google contenía un error fáctico. contained a factual error

La inexactitud de la IA de Google convirtió lo que se suponía que iba a ser un regreso triunfal en un pastel de humildad en la cara.

Posteriormente, las acciones de Google perdieron cien mil millones de dólares en valor de mercado en un solo día, lo que refleja una pérdida de confianza en la capacidad de Google para navegar en la era inminente de la IA. lost a hundred billion dollars

¿Cómo funciona Google Bard?

Bard funciona con una versión «ligera» de LaMDA.

LaMDA es un modelo de lenguaje grande que se entrena en conjuntos de datos que consisten en diálogo público y datos web.

Hay dos factores importantes relacionados con la capacitación descrita en el documento de investigación asociado, que puede descargar en formato PDF aquí: LaMDA: Modelos de lenguaje para aplicaciones de diálogo (lea el resumen aquí). LaMDA: Language Models for Dialog Applications

  • A Seguridad: el modelo logra un nivel de seguridad al ajustarlo con datos que fueron anotados por trabajadores de la multitud.
  • B Conexión a tierra: LaMDA se basa en hechos con fuentes de conocimiento externas (a través de la recuperación de información, que es la búsqueda).

El artículo de investigación de LaMDA afirma:

“…factual grounding, involves enabling the model to consult external knowledge sources, such as an information retrieval system, a language translator, and a calculator.

We quantify factuality using a groundedness metric, and we find that our approach enables the model to generate responses grounded in known sources, rather than responses that merely sound plausible.”

“…la base fáctica implica permitir que el modelo consulte fuentes de conocimiento externas, como un sistema de recuperación de información, un traductor de idiomas y una calculadora.

Cuantificamos la factualidad utilizando una métrica de conexión a tierra, y descubrimos que nuestro enfoque permite que el modelo genere respuestas basadas en fuentes conocidas, en lugar de respuestas que simplemente suenan plausibles”.

Google utilizó tres métricas para evaluar los resultados de LaMDA:

  1. Sensibilidad: una medida de si una respuesta tiene sentido o no.
  2. Especificidad: mide si la respuesta es opuesta a genérica/vaga o contextualmente específica.
  3. Interés: esta métrica mide si las respuestas de LaMDA son perspicaces o inspiran curiosidad.

Las tres métricas fueron juzgadas por evaluadores de colaboración colectiva, y esos datos se retroalimentaron a la máquina para seguir mejorándolos.

El artículo de investigación de LaMDA concluye afirmando que las revisiones colaborativas y la capacidad del sistema para verificar los hechos con un motor de búsqueda fueron técnicas útiles.

Los investigadores de Google escribieron:

“We find that crowd-annotated data is an effective tool for driving significant additional gains.

We also find that calling external APIs (such as an information retrieval system) offers a path towards significantly improving groundedness, which we define as the extent to which a generated response contains claims that can be referenced and checked against a known source.”

“Descubrimos que los datos anotados por la multitud son una herramienta eficaz para generar ganancias adicionales significativas.

También encontramos que llamar a API externas (como un sistema de recuperación de información) ofrece un camino para mejorar significativamente la conexión a tierra, que definimos como la medida en que una respuesta generada contiene afirmaciones a las que se puede hacer referencia y verificar con una fuente conocida”.

¿Cómo planea Google usar Bard en la búsqueda?

El futuro de Bard se visualiza actualmente como una función en la búsqueda.

El anuncio de Google en febrero no fue lo suficientemente específico sobre cómo se implementaría Bard.

Los detalles clave se ocultaron en un solo párrafo cerca del final del anuncio del blog de Bard, donde se describió como una función de IA en la búsqueda.

Esa falta de claridad alimentó la percepción de que Bard se integraría en la búsqueda, lo que nunca fue el caso.

El anuncio de Google de febrero de 2023 de Bard establece que Google en algún momento integrará funciones de inteligencia artificial en la búsqueda: announcement of Bard

“Soon, you’ll see AI-powered features in Search that distill complex information and multiple perspectives into easy-to-digest formats, so you can quickly understand the big picture and learn more from the web: whether that’s seeking out additional perspectives, like blogs from people who play both piano and guitar, or going deeper on a related topic, like steps to get started as a beginner.

These new AI features will begin rolling out on Google Search soon.”

“Pronto, verá funciones impulsadas por IA en la Búsqueda que extraen información compleja y múltiples perspectivas en formatos fáciles de digerir, para que pueda comprender rápidamente el panorama general y aprender más de la web: ya sea buscando perspectivas adicionales,

Estas nuevas funciones de IA comenzarán a implementarse en la Búsqueda de Google pronto”.

Está claro que Bard no es búsqueda Más bien, pretende ser una función de búsqueda y no un reemplazo de la búsqueda.

¿Qué es una función de búsqueda?

Una característica es algo así como el Panel de conocimiento de Google, que proporciona información de conocimiento sobre personas, lugares y cosas notables.

La página web «Cómo funciona la búsqueda» de Google sobre las características explica: How Search Works

“Google’s search features ensure that you get the right information at the right time in the format that’s most useful to your query.

Sometimes it’s a webpage, and sometimes it’s real-world information like a map or inventory at a local store.”

“Las funciones de búsqueda de Google garantizan que obtenga la información correcta en el momento adecuado en el formato que sea más útil para su consulta.

A veces es una página web y, a veces, información del mundo real, como un mapa o el inventario de una tienda local”.

En una reunión interna en Google (informada por CNBC), los empleados cuestionaron el uso de Bard en la búsqueda. reported by CNBC

Un empleado señaló que los grandes modelos de lenguaje como ChatGPT y Bard no son fuentes de información basadas en hechos.

El empleado de Google preguntó:

“Why do we think the big first application should be search, which at its heart is about finding true information?”

“¿Por qué creemos que la primera gran aplicación debería ser la búsqueda, que en el fondo se trata de encontrar información verdadera?”

Jack Krawczyk, líder de producto de Google Bard, respondió:

“I just want to be very clear: Bard is not search.”

“Solo quiero ser muy claro: Bard no es una búsqueda”.

En el mismo evento interno, la Vicepresidenta de Ingeniería de Búsqueda de Google, Elizabeth Reid, reiteró que Bard no es una búsqueda.

Ella dijo:

“Bard is really separate from search…”

«Bard está realmente separado de la búsqueda…»

Lo que podemos concluir con confianza es que Bard no es una nueva iteración de la búsqueda de Google. es una característica

Bard es un método interactivo para explorar temas

El anuncio de Google de Bard fue bastante explícito de que Bard no es búsqueda Esto significa que, mientras que la búsqueda muestra enlaces a respuestas, Bard ayuda a los usuarios a investigar el conocimiento.

El anuncio explica:

“When people think of Google, they often think of turning to us for quick factual answers, like ‘how many keys does a piano have?’

But increasingly, people are turning to Google for deeper insights and understanding – like, ‘is the piano or guitar easier to learn, and how much practice does each need?’

Learning about a topic like this can take a lot of effort to figure out what you really need to know, and people often want to explore a diverse range of opinions or perspectives.”

“Cuando las personas piensan en Google, a menudo piensan en recurrir a nosotros para obtener respuestas fácticas rápidas, como ‘¿cuántas teclas tiene un piano?’

Pero cada vez más, las personas recurren a Google para obtener información y comprensión más profundas, como, «¿es más fácil aprender a tocar el piano o la guitarra y cuánta práctica necesita cada uno?»

Aprender sobre un tema como este puede requerir mucho esfuerzo para descubrir lo que realmente necesita saber, y las personas a menudo quieren explorar una amplia gama de opiniones o perspectivas”.

Puede ser útil pensar en Bard como un método interactivo para acceder a conocimientos sobre temas.

Información web de muestras de Bard

El problema con los modelos de lenguaje grandes es que imitan las respuestas, lo que puede conducir a errores fácticos.

Los investigadores que crearon LaMDA afirman que enfoques como aumentar el tamaño del modelo pueden ayudarlo a obtener más información objetiva.

Pero notaron que este enfoque falla en áreas donde los hechos cambian constantemente durante el transcurso del tiempo, a lo que los investigadores se refieren como el «problema de generalización temporal».

La frescura en el sentido de información oportuna no se puede entrenar con un modelo de lenguaje estático.

La solución que persiguió LaMDA fue consultar los sistemas de recuperación de información Un sistema de recuperación de información es un motor de búsqueda, por lo que LaMDA verifica los resultados de la búsqueda.

Esta característica de LaMDA parece ser una característica de Bard.

El anuncio de Google Bard explica:

“Bard seeks to combine the breadth of the world’s knowledge with the power, intelligence, and creativity of our large language models.

It draws on information from the web to provide fresh, high-quality responses.”

“Bard busca combinar la amplitud del conocimiento del mundo con el poder, la inteligencia y la creatividad de nuestros grandes modelos de lenguaje.

Se basa en información de la web para proporcionar respuestas frescas y de alta calidad”.

Google Bard Chat Response

LaMDA y (posiblemente por extensión) Bard logran esto con lo que se llama el conjunto de herramientas (TS).

El conjunto de herramientas se explica en el artículo de investigación de LaMBDA:

“We create a toolset (TS) that includes an information retrieval system, a calculator, and a translator.

TS takes a single string as input and outputs a list of one or more strings. Each tool in TS expects a string and returns a list of strings.

For example, the calculator takes “135+7721”, and outputs a list containing [“7856”]. Similarly, the translator can take “hello in French” and output [‘Bonjour’].

Finally, the information retrieval system can take ‘How old is Rafael Nadal?’, and output [‘Rafael Nadal / Age / 35’].

The information retrieval system is also capable of returning snippets of content from the open web, with their corresponding URLs.

The TS tries an input string on all of its tools, and produces a final output list of strings by concatenating the output lists from every tool in the following order: calculator, translator, and information retrieval system.

A tool will return an empty list of results if it can’t parse the input (e.g., the calculator cannot parse ‘How old is Rafael Nadal?’), and therefore does not contribute to the final output list.”

“Creamos un conjunto de herramientas (TS) que incluye un sistema de recuperación de información, una calculadora y un traductor.

TS toma una sola cadena como entrada y genera una lista de una o más cadenas Cada herramienta en TS espera una cadena y devuelve una lista de cadenas.

Por ejemplo, la calculadora toma «135+7721» y genera una lista que contiene [«7856»] De manera similar, el traductor puede tomar «hola en francés» y generar [‘Bonjour’].

Finalmente, el sistema de recuperación de información puede tomar ‘¿Cuántos años tiene Rafael Nadal?’ y generar [‘Rafael Nadal / Edad / 35’].

El sistema de recuperación de información también es capaz de devolver fragmentos de contenido de la web abierta, con sus correspondientes URL.

El TS prueba una cadena de entrada en todas sus herramientas y produce una lista final de cadenas de salida concatenando las listas de salida de cada herramienta en el siguiente orden: calculadora, traductor y sistema de recuperación de información.

Una herramienta devolverá una lista vacía de resultados si no puede analizar la entrada (por ejemplo, la calculadora no puede analizar ‘¿Cuántos años tiene Rafael Nadal?’) y, por lo tanto, no contribuye a la lista de salida final».

Aquí hay una respuesta de Bard con un fragmento de la web abierta:

Google Bard: Everything You Need To Know

Sistemas conversacionales de preguntas y respuestas

No hay trabajos de investigación que mencionen el nombre «Bard».

Sin embargo, hay bastantes investigaciones recientes relacionadas con la IA, incluso por parte de científicos asociados con LaMDA, que pueden tener un impacto en Bard.

Lo siguiente no afirma que Google esté usando estos algoritmos No podemos decir con certeza si alguna de estas tecnologías se usa en Bard.

El valor de saber acerca de estos trabajos de investigación está en saber lo que es posible.

Los siguientes son algoritmos relevantes para los sistemas de preguntas y respuestas basados ​​en IA.

Uno de los autores de LaMDA trabajó en un proyecto que trata sobre la creación de datos de entrenamiento para un sistema de recuperación de información conversacional.

Puede descargar el documento de investigación de 2022 en formato PDF aquí: Dialog Inpainting: Turning Documents into Dialogs (y lea el resumen aquí). Dialog Inpainting: Turning Documents into Dialogs

El problema de entrenar un sistema como Bard es que los conjuntos de datos de preguntas y respuestas (como los conjuntos de datos compuestos por preguntas y respuestas que se encuentran en Reddit) se limitan a cómo se comportan las personas en Reddit.

No abarca cómo se comportan las personas fuera de ese entorno y el tipo de preguntas que harían, y cuáles serían las respuestas correctas a esas preguntas.

Los investigadores exploraron la creación de un sistema de lectura de páginas web, luego utilizaron un «pintor de diálogo» para predecir qué preguntas serían respondidas por cualquier pasaje dado dentro de lo que estaba leyendo la máquina.

Un pasaje en una página web confiable de Wikipedia que dice: «El cielo es azul», podría convertirse en la pregunta: «¿De qué color es el cielo?»

Los investigadores crearon su propio conjunto de datos de preguntas y respuestas utilizando Wikipedia y otras páginas web. Llamaron a los conjuntos de datos WikiDialog y WebDialog.

  • WikiDialog es un conjunto de preguntas y respuestas derivadas de los datos de Wikipedia.
  • WebDialog es un conjunto de datos derivado del diálogo de una página web en Internet.

Estos nuevos conjuntos de datos son 1000 veces más grandes que los conjuntos de datos existentes La importancia de eso es que les da a los modelos de lenguaje conversacional la oportunidad de aprender más.

Los investigadores informaron que este nuevo conjunto de datos ayudó a mejorar los sistemas conversacionales de preguntas y respuestas en más del 40 %.

El artículo de investigación describe el éxito de este enfoque:

“Importantly, we find that our inpainted datasets are powerful sources of training data for ConvQA systems…

When used to pre-train standard retriever and reranker architectures, they advance state-of-the-art across three different ConvQA retrieval benchmarks (QRECC, OR-QUAC, TREC-CAST), delivering up to 40% relative gains on standard evaluation metrics…

Remarkably, we find that just pre-training on WikiDialog enables strong zero-shot retrieval performance—up to 95% of a finetuned retriever’s performance—without using any in-domain ConvQA data. “

“Es importante destacar que descubrimos que nuestros conjuntos de datos incorporados son fuentes poderosas de datos de capacitación para los sistemas ConvQA…

Cuando se utilizan para pre-entrenar arquitecturas estándar de recuperación y reclasificación, avanzan lo último en tres puntos de referencia de recuperación de ConvQA diferentes (QRECC, OR-QUAC, TREC-CAST), lo que brinda ganancias relativas de hasta un 40 % en las métricas de evaluación estándar.

Sorprendentemente, descubrimos que solo el entrenamiento previo en WikiDialog permite un sólido rendimiento de recuperación de tiro cero (hasta el 95 % del rendimiento de un perro perdiguero ajustado) sin usar ningún dato de ConvQA en el dominio. “

¿Es posible que Google Bard haya sido entrenado usando los conjuntos de datos WikiDialog y WebDialog?

Es difícil imaginar un escenario en el que Google dejaría de entrenar una IA conversacional en un conjunto de datos que es más de 1000 veces mayor.

Pero no lo sabemos con certeza porque Google no suele comentar en detalle sus tecnologías subyacentes, excepto en raras ocasiones, como Bard o LaMDA.

Modelos de lenguaje grande que se vinculan a las fuentes

Google publicó recientemente un interesante trabajo de investigación sobre una forma de hacer que los modelos de lenguaje grandes citen las fuentes de su información. La versión inicial del documento se publicó en diciembre de 2022 y la segunda versión se actualizó en febrero de 2023.

Esta tecnología se denomina experimental a partir de diciembre de 2022.

Puede descargar el PDF del documento aquí: Respuesta a preguntas atribuidas: evaluación y modelado para modelos de lenguaje grande atribuidos (lea el resumen de Google aquí). Attributed Question Answering: Evaluation and Modeling for Attributed Large Language Models

El trabajo de investigación establece la intención de la tecnología:

“Large language models (LLMs) have shown impressive results while requiring little or no direct supervision.

Further, there is mounting evidence that LLMs may have potential in information-seeking scenarios.

We believe the ability of an LLM to attribute the text that it generates is likely to be crucial in this setting.

We formulate and study Attributed QA as a key first step in the development of attributed LLMs.

We propose a reproducible evaluation framework for the task and benchmark a broad set of architectures.

We take human annotations as a gold standard and show that a correlated automatic metric is suitable for development.

Our experimental work gives concrete answers to two key questions (How to measure attribution?, and How well do current state-of-the-art methods perform on attribution?), and give some hints as to how to address a third (How to build LLMs with attribution?).”

“Los modelos de idiomas grandes (LLM) han mostrado resultados impresionantes y requieren poca o ninguna supervisión directa.

Además, existe una creciente evidencia de que los LLM pueden tener potencial en escenarios de búsqueda de información.

Creemos que la capacidad de un LLM para atribuir el texto que genera probablemente sea crucial en este entorno.

Formulamos y estudiamos el control de calidad atribuido como un primer paso clave en el desarrollo de LLM atribuidos.

Proponemos un marco de evaluación reproducible para la tarea y comparamos un amplio conjunto de arquitecturas.

Tomamos las anotaciones humanas como un estándar de oro y demostramos que una métrica automática correlacionada es adecuada para el desarrollo.

Nuestro trabajo experimental brinda respuestas concretas a dos preguntas clave (¿Cómo medir la atribución? y ¿Qué tan bien funcionan los métodos actuales de última generación en la atribución?), y brinda algunas sugerencias sobre cómo abordar una tercera (¿Cómo

Este tipo de modelo de lenguaje grande puede entrenar un sistema que puede responder con documentación de respaldo que, en teoría, asegura que la respuesta se basa en algo.

El trabajo de investigación explica:

“To explore these questions, we propose Attributed Question Answering (QA). In our formulation, the input to the model/system is a question, and the output is an (answer, attribution) pair where answer is an answer string, and attribution is a pointer into a fixed corpus, e.g., of paragraphs.

The returned attribution should give supporting evidence for the answer.”

“Para explorar estas preguntas, proponemos la respuesta a preguntas atribuidas (QA) En nuestra formulación, la entrada al modelo/sistema es una pregunta y la salida es un par (respuesta, atribución) donde la respuesta es una cadena de respuesta y la atribución es un puntero a un corpus fijo, por ejemplo, de párrafos.

La atribución devuelta debe brindar evidencia de respaldo para la respuesta”.

Esta tecnología es específica para tareas de respuesta a preguntas.

El objetivo es crear mejores respuestas, algo que, comprensiblemente, Google querría para Bard.

  • La atribución permite a los usuarios y desarrolladores evaluar la «confiabilidad y los matices» de las respuestas.
  • La atribución permite a los desarrolladores revisar rápidamente la calidad de las respuestas ya que se proporcionan las fuentes.

Una nota interesante es una nueva tecnología llamada AutoAIS que se correlaciona fuertemente con los evaluadores humanos.

En otras palabras, esta tecnología puede automatizar el trabajo de evaluadores humanos y escalar el proceso de calificación de las respuestas dadas por un modelo de lenguaje grande (como Bard).

Los investigadores comparten:

“We consider human rating to be the gold standard for system evaluation, but find that AutoAIS correlates well with human judgment at the system level, offering promise as a development metric where human rating is infeasible, or even as a noisy training signal. “

“Consideramos que la calificación humana es el estándar de oro para la evaluación del sistema, pero descubrimos que AutoAIS se correlaciona bien con el juicio humano a nivel del sistema, ofreciendo una promesa como una métrica de desarrollo donde la calificación humana es inviable, o incluso como una señal de entrenamiento ruidosa. “

Esta tecnología es experimental; Pero muestra una de las direcciones que Google está explorando para producir respuestas confiables.

Documento de investigación sobre la edición de respuestas para la factualidad

Por último, hay una tecnología notable desarrollada en la Universidad de Cornell (que también data de finales de 2022) que explora una forma diferente de atribución de origen para lo que genera un modelo de lenguaje grande e incluso puede editar una respuesta para corregirse a sí misma.

La Universidad de Cornell (al igual que la Universidad de Stanford) otorga licencias de tecnología relacionada con la búsqueda y otras áreas, lo que genera millones de dólares al año. licenses technology

Es bueno mantenerse al día con la investigación universitaria porque muestra lo que es posible y lo que es vanguardista.

Puede descargar un PDF del documento aquí: RARR: Investigación y revisión de lo que dicen los modelos de lenguaje, uso de modelos de lenguaje (y lea el resumen aquí). RARR: Researching and Revising What Language Models Say, Using Language Models

El resumen explica la tecnología:

“Language models (LMs) now excel at many tasks such as few-shot learning, question answering, reasoning, and dialog.

However, they sometimes generate unsupported or misleading content.

A user cannot easily determine whether their outputs are trustworthy or not, because most LMs do not have any built-in mechanism for attribution to external evidence.

To enable attribution while still preserving all the powerful advantages of recent generation models, we propose RARR (Retrofit Attribution using Research and Revision), a system that 1) automatically finds attribution for the output of any text generation model and 2) post-edits the output to fix unsupported content while preserving the original output as much as possible.

…we find that RARR significantly improves attribution while otherwise preserving the original input to a much greater degree than previously explored edit models.

Furthermore, the implementation of RARR requires only a handful of training examples, a large language model, and standard web search.”

“Los modelos de lenguaje (LM) ahora se destacan en muchas tareas, como el aprendizaje de pocas tomas, la respuesta a preguntas, el razonamiento y el diálogo.

Sin embargo, a veces generan contenido no compatible o engañoso.

Un usuario no puede determinar fácilmente si sus resultados son confiables o no, porque la mayoría de los LM no tienen ningún mecanismo incorporado para la atribución a la evidencia externa.

Para habilitar la atribución y al mismo tiempo conservar todas las poderosas ventajas de los modelos de generación reciente, proponemos RARR (Retrofit Attribution usando Research and Revision), un sistema que 1) encuentra automáticamente la atribución para la salida de cualquier modelo de generación de texto y 2) edita posteriormente el

…encontramos que RARR mejora significativamente la atribución mientras conserva la entrada original en un grado mucho mayor que los modelos de edición explorados anteriormente.

Además, la implementación de RARR requiere solo un puñado de ejemplos de capacitación, un modelo de lenguaje grande y una búsqueda web estándar”.

¿Cómo obtengo acceso a Google Bard?

Actualmente, Google está aceptando nuevos usuarios para probar Bard, que actualmente está etiquetado como experimental Google está implementando el acceso para Bard aquí. for Bard here

Google Bard is Experimental

Google está registrado diciendo que Bard no es una búsqueda, lo que debería tranquilizar a aquellos que sienten ansiedad por el amanecer de la IA.

Estamos en un punto de inflexión que no se parece a ninguno que hayamos visto en, quizás, una década.

Comprender Bard es útil para cualquiera que publique en la web o practique SEO porque es útil para conocer los límites de lo que es posible y el futuro de lo que se puede lograr.

Más recursos:

Imagen destacada: Whyredphotographor/Shutterstock

Leer el articulo original en Search Engine Journal.

¡Danos un Voto!

¿Tienes una pregunta?

Luis Narciso
Sobre SEO
(Posicionamiento Web)

Frank Fajardo
Sobre Diseño Web, Anuncios, Diseño y Redes Sociales