Contenidos
Comience a utilizar BigQuery para el análisis de contenido utilizando datos de Google Search Console Se proporcionan consejos, trucos, mejores prácticas y consultas.
Si siempre te ha asombrado la gente que utiliza la API de Google Search Console para hacer cosas interesantes, este artículo es una buena lectura para ti.
Puedes usar BigQuery con la exportación masiva de datos de GSC para obtener algunos de los mismos beneficios sin necesidad de la ayuda de un desarrollador.
Con BigQuery, puedes analizar de manera eficiente grandes volúmenes de datos a partir de la exportación masiva de datos de GSC.
No tendrás recuperación de datos en tiempo real; you can rely on daily data imports
Al aprovechar BigQuery y la exportación masiva de datos de GSC, puedes acceder a datos completos de análisis de búsqueda; esa es la parte sobre la que todo el mundo habla maravillas en LinkedIn.
Según Gus Pelogia, director de productos SEO de Indeed: Gus Pelogia, SEO product manager at Indeed
“It’s such a game changer and a great opportunity to learn SQL. We can finally bypass GSC and external SEO tools limitations. I was surprised to see how simple it was to retrieve data.”
«Es un gran cambio y una gran oportunidad para aprender SQL Finalmente podemos superar las limitaciones de GSC y de las herramientas SEO externas Me sorprendió ver lo sencillo que era recuperar datos”.
Un enfoque estructurado para el uso de datos de BigQuery y Google Search Console (GSC) para el análisis del rendimiento del contenido
El objetivo de este artículo no es proporcionarle una larga lista de consultas ni un enorme plan paso a paso sobre cómo realizar la auditoría más intensa de todos los tiempos.
Mi objetivo es que se sienta más cómodo al analizar datos sin las limitaciones que vienen con la interfaz de Google Search Console. Para hacer esto, debe considerar cinco pasos:
- Identificar casos de uso.
- Identifique métricas relevantes para cada caso de uso.
- Consulta los datos.
- Cree un informe de Looker Studio para ayudar a las partes interesadas y a los equipos a comprender su análisis.
- Automatiza los informes.
El problema al que nos enfrentamos a menudo al empezar a usar BigQuery es que todos queremos consultar los datos de inmediato. Pero eso no es suficiente.
El verdadero valor que puede aportar es tener un enfoque estructurado para su análisis de datos.
1 Identificar casos de uso
A menudo se recomienda que conozca sus datos antes de decidir qué desea analizar. Si bien esto es cierto, en este caso te estará limitando.
Le recomendamos comenzar determinando el propósito y los objetivos específicos para analizar el rendimiento del contenido.
Caso de uso n.º 1: identificar las consultas y las páginas que generan la mayor cantidad de clics
“I believe that every high-quality SEO audit should also analyze the site’s visibility and performance in search. Once you identify these areas, you will know what to focus on in your audit recommendations.”
“Creo que toda auditoría SEO de alta calidad también debería analizar la visibilidad y el rendimiento del sitio en las búsquedas. Una vez que identifique estas áreas, sabrá en qué centrarse en sus recomendaciones de auditoría”.
Dijo Olga Zarr en su guía “Cómo auditar un sitio con Google Search Console”.
Para hacer eso, desea las consultas y las páginas que generan la mayor cantidad de clics.
Caso de uso n.º 2: cálculo del UQC
Si desea detectar áreas u oportunidades débiles, calcular el recuento de consultas únicas (UQC) por página ofrece información valiosa. Unique Query Count (UQC) per page
Esto ya lo sabes porque utilizas este tipo de análisis en herramientas SEO como Semrush, SE Ranking, Dragon Metrics o Serpstat (este último tiene una estupenda guía sobre Cómo utilizar Google Search Console para crear planes de contenidos). How to Use Google Search Console to Create Content Plans
Sin embargo, es increíblemente útil recrear esto con sus propios datos de Google Search Console. Puede automatizar y replicar el proceso de forma regular.
Esto tiene beneficios:
- Ayuda a identificar qué páginas atraen una amplia gama de consultas de búsqueda y cuáles pueden estar más centradas en temas específicos.
- Las páginas con un UQC alto pueden presentar oportunidades para una mayor optimización o expansión para aprovechar una gama más amplia de consultas de búsqueda.
- El análisis del UQC por página también puede revelar qué bandas de posición (por ejemplo, posiciones 1-3, 4-10, etc.) muestran más variabilidad en términos del número de consultas únicas. Esto puede ayudar a priorizar los esfuerzos de optimización.
- Comprender cómo fluctúa el UQC a lo largo del año puede informar las estrategias de optimización y planificación de contenido para alinearse con las tendencias estacionales y aprovechar los períodos pico de actividad de búsqueda.
- Comparar las tendencias de UQC en diferentes períodos de tiempo le permite medir la efectividad de los esfuerzos de optimización de contenido e identificar áreas para seguir mejorando.
Caso de uso n.º 3: evaluación del riesgo del contenido
Jess Joyce, experta en SEO B2B y SaaS, tiene un marco de optimización de contenido que genera ingresos y que comparte con los clientes. revenue generating content optimization framework
Uno de los pasos críticos es encontrar páginas que experimentaron una disminución en los clics y las impresiones trimestre tras trimestre. Ella confía en los datos de Search Console para hacerlo.
Crear esta consulta sería fantástico, pero antes de entrar en esto, debemos evaluar el riesgo del contenido.
Si calcula el porcentaje del total de clics aportados por el 1% superior de las páginas de un sitio web en función del número de clics que recibe cada página, puede determinar rápidamente si se encuentra en la zona de peligro, es decir, si existen riesgos potenciales asociados con más de
He aquí por qué esto es importante:
- Depender excesivamente de un pequeño subconjunto de páginas puede ser perjudicial, ya que reduce la diversificación del tráfico en el sitio web, haciéndolo vulnerable a fluctuaciones o disminuciones en el tráfico a esas páginas específicas.
- Evaluación de la zona de peligro: un valor porcentual superior al 40 % indica una alta dependencia del 1 % superior de las páginas para el tráfico orgánico, lo que sugiere un riesgo potencial.
- Esta consulta proporciona información valiosa sobre la distribución del tráfico orgánico en un sitio web.
2 Identificar métricas relevantes
Analizar su contenido le permite discernir qué contenido es efectivo y cuál no, lo que le permite tomar decisiones basadas en datos.
Ya sea ampliando o descontinuando ciertos tipos de contenido, aprovechar la información de sus datos le permite adaptar su estrategia de contenido para que coincida con las preferencias de su audiencia.
Las métricas y el análisis en el marketing de contenidos proporcionan los datos esenciales para crear contenido que resuene con su audiencia.
Caso de uso n.º 1: identificar las consultas y las páginas que generan la mayor cantidad de clics
Para este caso de uso, necesita algunos datos bastante sencillos.
Enumerémoslo todo aquí:
- URL y/o consultas.
- Clics.
- Impresiones.
- Tipo de búsqueda: sólo queremos búsquedas web, no imágenes u otros tipos.
- Durante un intervalo de tiempo específico.
El siguiente paso es determinar de qué tabla debe obtener esta información. Recuerda, como comentamos anteriormente, tienes:
- searchdata_site_impression: contiene datos de rendimiento de su propiedad agregados por propiedad.
- searchdata_url_impression: contiene datos de rendimiento de su propiedad agregados por URL.
En este caso, necesita los datos de rendimiento agregados por URL, por lo que esto significa utilizar la tabla searchdata_url_impression.
Caso de uso n.º 2: cálculo del UQC
Para este caso de uso, también debemos enumerar lo que necesitamos:
- URL: queremos calcular el UQC por página.
- Consulta: Queremos las consultas asociadas a cada URL.
- Tipo de búsqueda: Sólo queremos búsquedas web, no imágenes u otros tipos.
- Aún necesitamos elegir una tabla; en este caso, necesita los datos de rendimiento agregados por URL, por lo que esto significa usar la tabla searchdata_url_impression.
Caso de uso n.° 3: evaluación del riesgo del contenido
Para calcular la «contribución de clics del 1% de las páginas principales por clics», necesita las siguientes métricas:
- URL: Se utiliza para calcular la contribución de los clics.
- Clics: el número de clics que ha recibido cada URL.
- Tipo de búsqueda: indica el tipo de búsqueda, normalmente «WEB» para búsquedas web.
- Aún necesitamos elegir una tabla; en este caso, necesita los datos de rendimiento agregados por URL, por lo que esto significa usar la tabla searchdata_url_impression. (Voz del narrador: ¿nota una tendencia? Estamos practicando con una tabla que le permitirá familiarizarse con ella).
3 Consultar los datos
Caso de uso n.º 1: identificar las consultas y las páginas que generan la mayor cantidad de clics
Unámoslo todo para crear una consulta, ¿de acuerdo?
Quiere ver las páginas con la mayor cantidad de clics e impresiones. Este es un código simple que puede obtener del manual de BigQuery de Marco Giordano disponible a través de su boletín. Marco Giordano
Lo hemos modificado ligeramente para adaptarlo a nuestras necesidades y garantizar que usted mantenga los costos bajos.
Copie esta consulta para obtener las páginas con la mayor cantidad de clics e impresiones:
SELECT url, SUM(clicks) as total_clicks, SUM(impressions) as total_impressions FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE search_type = 'WEB' and url NOT LIKE '%#%' AND data_date = "2024-02-13" GROUP BY url ORDER BY total_clicks DESC;
Se basa en uno de los patrones SQL más comunes. Te permite agrupar por una variable, en nuestro caso, URLs Y luego, puede seleccionar las métricas agregadas que desee.
En nuestro caso, especificamos impresiones y clics, por lo que resumiremos clics e impresiones (dos columnas).
Analicemos la consulta que compartió Marco:
SELECT url, SUM(clicks) as total_clicks, SUM(impresiones) as total_impressions: especifica las columnas que se recuperarán en el conjunto de resultados.
- url: Representa la URL de la página web.
- SUM(clicks) as total_clicks: Calcula el número total de clics para cada URL y le asigna un alias total_clicks.
- SUM(impresiones) as total_impressions: Calcula el número total de impresiones para cada URL y le asigna un alias total_impressions.
Cláusula DE
- FROM table_name`pragm-ga4.searchconsole.searchdata_url_impression`: especifica la tabla de la que recuperar los datos.
- table_name: representa el nombre de la tabla que contiene los datos relevantes.
- Importante saber: reemplace el nombre de nuestra tabla con el nombre de su tabla.
Dónde cláusula
- DONDE search_type = ‘WEB’ y url NO COMO ‘%#%’: Filtra los datos según condiciones específicas.
- search_type = ‘WEB’: garantiza que solo se incluyan datos relacionados con los resultados de búsqueda web.
- URL NO COMO ‘%#%’: excluye las URL que contienen «#» en su dirección, filtrando enlaces ancla dentro de las páginas.
- data_date = “2024-02-13”: esta condición filtra los datos para incluir solo registros para la fecha ‘2024-02-13’ Garantiza que el análisis se centre únicamente en los datos recopilados en esta fecha específica, lo que permite un examen más granular de la actividad web de ese día.
- (Voz del narrador: le recomendamos seleccionar una fecha para mantener los costos bajos).
Importante saber: Le recomendamos seleccionar dos días antes de la fecha de hoy para asegurarse de tener datos disponibles.
Cláusula GRUPO POR
- GROUP BY url: Agrupa los resultados por la columna de URL.
- Esto agrupa los datos para que la función SUMA calcule el total de clics e impresiones para cada URL única.
Cláusula ORDEN POR
- ORDER BY total_clicks DESC: especifica el orden del conjunto de resultados según la columna total_clicks en orden descendente.
- Esto organiza las URL en el conjunto de resultados en función del número total de clics, donde la URL que tiene el mayor número de clics aparece primero.
Esta consulta es aún más avanzada de lo que la mayoría de los principiantes crearían porque no solo recupera datos de la tabla correcta sino que también los filtra según condiciones específicas (eliminando enlaces ancla y tipos de búsqueda que no son exclusivamente WEB).
Después de eso, calcula el número total de clics e impresiones para cada URL, agrupa los resultados por URL y los ordena según el número total de clics en orden descendente.
Es por eso que debe comenzar primero con su caso de uso, luego descubrir las métricas y luego escribir la consulta.
Copie este SQL para obtener las consultas en GSC con la mayor cantidad de clics e impresiones:
SELECT query, SUM(clicks) as total_clicks, SUM(impressions) as total_impressions FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE search_type = 'WEB' AND data_date = "2024-02-13" GROUP BY query ORDER BY total_clicks DESC;
Esta es la misma consulta, pero en lugar de obtener la URL aquí, recuperaremos la consulta y agregaremos los datos según este campo. Puede ver eso en la parte de consulta GROUP BY.
El problema con esta consulta es que es probable que obtenga muchos resultados «nulos». Estas son consultas anónimas. Puede eliminarlos utilizando esta consulta:
SELECT query, SUM(clicks) as total_clicks, SUM(impressions) as total_impressions FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE search_type = 'WEB' AND is_anonymized_query = false AND data_date = "2024-02-13" GROUP BY Query ORDER BY total_clicks DESC;
Ahora vamos un paso más allá Me gusta cómo lo hizo Iky Tai, SEO en GlobalShares en LinkedIn Primero, debe definir qué hace la consulta: puede ver las URL de alto rendimiento mediante clics para un rango de fechas seleccionado. Iky Tai, SEO at GlobalShares went about it on LinkedIn
La consulta SQL tiene que recuperar los datos de la tabla especificada, filtrarlos según un rango de fechas, no una fecha específica, calcular el número total de impresiones y clics para cada URL, agrupar los resultados por URL y ordenarlos según la
Ahora que esto está hecho, podemos construir la consulta SQL:
SELECT url, SUM(impressions) AS impressions, SUM(clicks) AS clicks FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE data_date BETWEEN DATE_SUB(CURRENT_DATE(), INTERVAL 3 DAY) AND DATE_SUB(CURRENT_DATE(), INTERVAL 1 DAY) GROUP BY url ORDER BY clicks DESC;
Antes de copiar y pegar su camino hacia la gloria, tómese el tiempo para comprender cómo se construye:
SELECCIONAR declaración
- SELECCIONAR URL, SUM(impresiones) COMO impresiones, SUM(clics) COMO clics: especifica las columnas que se recuperarán en el conjunto de resultados.
- url: Representa la URL de la página web.
- SUM(impresiones) AS impresiones: Calcula el número total de impresiones para cada URL.
- SUM(clics) AS clics: Calcula el número total de clics para cada URL.
Cláusula DE
- FROM searchconsole.searchdata_url_impression: especifica la tabla de la que recuperar los datos.
- (Voz del narrador: Tendrás que reemplazar el nombre de tu mesa).
- search console.search data_url_impression: representa el conjunto de datos y la tabla que contiene los datos de búsqueda para URL individuales.
Dónde cláusula
- DONDE data_date ENTRE DATE_SUB(CURRENT_DATE(), INTERVAL 3 DAY) AND DATE_SUB(CURRENT_DATE(), INTERVAL 1 DAY): filtra los datos según el rango de fechas.
- data_date: Representa la fecha en la que se registraron los datos de búsqueda.
- ENTRE: Especifica el rango de fechas desde hace tres días (INTERVALO 3 DÍA) hasta ayer (INTERVALO 1 DÍA).
- DATE_SUB(CURRENT_DATE(), INTERVAL 3 DAY): Calcula la fecha de hace tres días a partir de la fecha actual.
- DATE_SUB(CURRENT_DATE(), INTERVAL 1 DAY): Calcula la fecha de ayer a partir de la fecha actual.
Importante saber: Como dijimos anteriormente, es posible que no tengas datos disponibles de los dos días anteriores. Esto significa que podría cambiar ese intervalo para que diga cinco y tres días en lugar de tres y un día.
Cláusula GRUPO POR
GROUP BY url: Agrupa los resultados por la columna de URL.
- Esto agrupa los datos para que la función SUMA calcule las impresiones y los clics para cada URL única.
Cláusula ORDEN POR
ORDENAR POR clics DESC: especifica el orden del conjunto de resultados según la columna de clics en orden descendente.
- Esto organiza las URL en el conjunto de resultados en función del número total de clics, donde la URL que tiene el mayor número de clics aparece primero.
Nota importante: cuando comience, le recomiendo que utilice un LLM como Gemini o ChatGPT para ayudar a dividir las consultas en partes que pueda comprender.
Caso de uso n.º 2: cálculo del UQC
Aquí hay otro manual útil de Marco que hemos modificado para brindarle siete días de datos (el equivalente a una semana):
SELECT url, COUNT(DISTINCT(query)) as unique_query_count FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE search_type = 'WEB' and url NOT LIKE '%#%' AND data_date BETWEEN DATE_SUB(CURRENT_DATE(), INTERVAL 10 DAY) AND DATE_SUB(CURRENT_DATE(), INTERVAL 3 DAY) GROUP BY url ORDER BY unique_query_count DESC;
Esta vez, no desglosaremos la consulta.
Esta consulta calcula el recuento de consultas únicas (UQC) por página contando las distintas consultas asociadas con cada URL, excluyendo las URL que contienen «#» y filtrando por búsquedas web.
Lo hace durante un intervalo de siete días, teniendo en cuenta que es posible que los datos no estén disponibles para los dos días anteriores.
Luego, los resultados se ordenan según el recuento de consultas únicas en orden descendente, lo que proporciona información sobre qué páginas atraen una amplia gama de consultas de búsqueda.
Caso de uso n.° 3: evaluación del riesgo del contenido
Esta consulta calcula el porcentaje del total de clics que representa el 1% superior de las URL en términos de clics. Esta es una consulta mucho más avanzada que las anteriores. Está tomado directamente del Playbook de Marco:
WITH PageClicksRanked AS ( SELECT url, SUM(clicks) AS total_clicks, PERCENT_RANK() OVER (ORDER BY SUM(clicks) DESC) AS percent_rank FROM `pragm-ga4.searchconsole.searchdata_url_impression` WHERE search_type = 'WEB' AND url NOT LIKE '%#%' GROUP BY url ) SELECT ROUND(SUM(CASE WHEN percent_rank <= 0.01 THEN total_clicks ELSE 0 END) / SUM(total_clicks) * 100, 2) AS percentage_of_clicks FROM PageClicksRanked;
Esta consulta SQL es más compleja porque incorpora técnicas avanzadas como funciones de ventana, agregación condicional y expresiones de tabla comunes.
Analicémoslo:
Expresión de tabla común (CTE) – PageClicksRanked
- Esta parte de la consulta crea un conjunto de resultados temporal denominado PageClicksRanked.
- Calcula el número total de clics para cada URL y asigna un rango percentil a cada URL en función del número total de clics. El rango percentil se calcula utilizando la función de ventana PERCENT_RANK(), que asigna un rango relativo a cada fila dentro de una partición del conjunto de resultados.
- Columnas seleccionadas:
- URL: la URL desde la que se originaron los clics.
- SUM(clics) AS total_clicks: el número total de clics para cada URL.
- PERCENT_RANK() OVER (ORDER BY SUM(clicks) DESC) AS percent_rank: calcula la clasificación percentil de cada URL en función del número total de clics, ordenados en orden descendente.
- URL: la URL desde la que se originaron los clics.
- SUM(clics) AS total_clicks: el número total de clics para cada URL.
- PERCENT_RANK() OVER (ORDER BY SUM(clicks) DESC) AS percent_rank: calcula la clasificación percentil de cada URL en función del número total de clics, ordenados en orden descendente.
Condiciones
- search_type = ‘WEB’: filtra los datos para incluir solo resultados de búsqueda web.
- Y la URL NO ES COMO ‘%#%’: excluye las URL que contienen «#» del conjunto de resultados.
Agrupamiento
- GROUP BY url: Agrupa los datos por URL para calcular el total de clics para cada URL.
Consulta principal
- Esta parte de la consulta calcula el porcentaje del total de clics que representa el 1% superior de las URL en términos de clics.
- Resume los clics totales de las URL cuyo rango percentil es menor o igual a 0,01 (1% superior) y lo divide por la suma total de clics en todas las URL. Luego, multiplica el resultado por 100 para obtener el porcentaje.
Columnas seleccionadas
- ROUND(SUM(CASE WHEN percent_rank <= 0.01 THEN total_clicks ELSE 0 END) / SUM(total_clicks) * 100, 2) AS percent_of_clicks: Calcula el porcentaje de clics que representan el 1% superior de las URL La declaración CASE filtra las URL con un rango percentil menor o igual a 0,01 y luego resume el total de clics para esas URL. Finalmente, divide esta suma por la suma total de clics en todas las URL y la multiplica por 100 para obtener el porcentaje. La función REDONDEAR se utiliza para redondear el resultado a dos decimales.
Fuente
- DESDE PageClicksRanked: utiliza el CTE de PageClicksRanked como fuente de datos para los cálculos.
(Voz del narrador: es por eso que no compartimos consultas más complejas de inmediato. Escribir consultas complejas requiere inmediatamente conocimiento, práctica y comprensión de los datos subyacentes y los requisitos comerciales).
Para escribir este tipo de consultas, necesita:
- Un conocimiento sólido de la sintaxis SQL: declaraciones SELECT, GROUP BY, funciones agregadas, subconsultas y funciones de ventana para comenzar.
- ¡Práctica! ¡También lo es trabajar con conjuntos de datos y resolver problemas analíticos!
- Tener un buen libro de cocina: dejar de lado buenas consultas que pueda modificar y en las que pueda confiar.
- Habilidades de resolución de problemas: para encontrar el enfoque correcto, debe poder dividir tareas analíticas complejas en pasos manejables. Por eso comenzamos con el marco de cinco pasos.
- Una mentalidad de rendimiento: desea mejorar el rendimiento de las consultas, especialmente para consultas complejas que operan en grandes conjuntos de datos. Si no lo hace, podría terminar gastando mucho dinero en BigQuery.
4 Crear paneles de Looker Studio
Una vez hecho esto, puede utilizar Looker Studio para crear paneles y visualizaciones que muestren las métricas de rendimiento de su contenido.
Puede personalizar estos paneles para presentar datos de manera significativa para diferentes partes interesadas y equipos. Esto significa que usted no es el único que accede a la información.
Profundizaremos en esta parte del marco en otro artículo.
Sin embargo, si desea comenzar con un panel de Looker Studio utilizando datos de BigQuery, Emad Sharaki compartió su increíble panel. Te recomendamos que lo pruebes. Emad Sharaki
5 Automatizar informes
Una vez que haya hecho todo esto, puede configurar consultas programadas en BigQuery para recuperar automáticamente los datos de GSC presentes en las tablas a intervalos regulares.
Esto significa que puede automatizar la generación y distribución de informes dentro de su empresa.
Puede consultar la documentación oficial de esta parte por ahora. Cubriremos esto más adelante en otro artículo dedicado. You can check out the official documentation for this portion for now.
El único consejo que compartiremos aquí es que debe programar consultas después de la ventana de exportación típica para asegurarse de consultar los datos disponibles más recientes.
Para monitorear la actualización de los datos, debes realizar un seguimiento de los tiempos de finalización de las exportaciones en el registro de exportaciones de BigQuery. BigQuery’s export log
Puede utilizar la automatización de informes para habilitar a otros equipos en lo que respecta a la creación y optimización de contenido. Gianna Brachetti-Truskawa, PM de SEO y estratega, apoya a los equipos editoriales integrando informes directamente en el CMS. Gianna Brachetti-Truskawa
Esto significa que los editores pueden filtrar los artículos existentes por rendimiento y priorizar sus esfuerzos de optimización en consecuencia. Otro elemento de generación de informes de automatización a considerar es la integración con Jira para conectar su desempeño a un panel con reglas personalizadas.
Esto significa que los artículos se pueden colocar en la parte superior del trabajo pendiente y que los temas estacionales se pueden agregar al trabajo pendiente de manera oportuna para generar impulso.
Ir más lejos
Obviamente, necesitará más casos de uso y una comprensión más profunda del tipo de auditoría de contenido que desea realizar.
Sin embargo, el marco que compartimos en este artículo es una excelente manera de garantizar que todo se mantenga estructurado. Si quieres ir más allá, Lazarina Stoy, experta en datos SEO, tiene algunos consejos para ti: Lazarina Stoy
“When doing content performance analysis, it’s important to understand that not all content is created equal. Utilize SQL Case/When statements to create subsets of the content based on page type (company page, blog post, case study, etc.), content structure patterns (concept explainer, news item, tutorial, guide, etc), title patterns, target intent, target audiences, content clusters, and any other type of classification that is unique to your content.
That way you can monitor and troubleshoot if you detect patterns that are underperforming, as well as amplify the efforts that are paying off, whenever such are detected.”
«Al realizar un análisis del rendimiento del contenido, es importante comprender que no todo el contenido se crea de la misma manera. Utilice declaraciones SQL Case/When para crear subconjuntos del contenido según el tipo de página (página de la empresa, publicación de blog, estudio de caso, etc.), patrones de estructura de contenido (explicación de conceptos, noticias, tutorial, guía, etc.), patrones de títulos.
De esa manera, puede monitorear y solucionar problemas si detecta patrones que no tienen un rendimiento adecuado, así como amplificar los esfuerzos que están dando sus frutos, siempre que se detecten”.
Si crea consultas basadas en estas consideraciones, compártalas con nosotros para que podamos agregarlas al libro de recetas de consultas que se pueden usar para el análisis del rendimiento del contenido.
Conclusión
Si sigue este enfoque estructurado, puede aprovechar de manera efectiva los datos de BigQuery y GSC para analizar y optimizar el rendimiento de su contenido mientras automatiza los informes para mantener informadas a las partes interesadas.
Recuerde, recopilar las consultas de los demás no le convertirá en un profesional de BigQuery de la noche a la mañana. Su valor radica en descubrir casos de uso.
Después de eso, puede determinar las métricas que necesita y modificar las consultas que otros crearon o escribir las suyas propias. Una vez que tenga eso en la bolsa, es hora de ser un profesional y permitir que otros usen el panel que creó para visualizar sus hallazgos.
¡Tu tranquilidad llegará una vez que automatices algunas de estas acciones y desarrolles aún más tus habilidades y consultas!
Más recursos:
Imagen de portada: Suvit Topaiboon/Shutterstock
Leer el articulo original en Search Engine Journal.