Tendencias SEO 2024
Tendencias SEO 2024

Con el nuevo año es buen momento para abordar las tendencias SEO que probablemente van a marcar la optimización de buscadores en los próximos meses.

Estas son las tendencias que creemos pueden ser esenciales en tu estrategia SEO en 2024, y también son algunas de las predicciones compartidas por expertos de Moz, Semrush, Backlinko, entre otros. 

  1. Google Search Generative Experience (SGE)
  2. Autoría (EEAT)
  3. Experiencia de usuario/Intención del usuario

Google Search Generative Experience (SGE)

La SGE es una nueva experiencia de búsqueda de Google, por ahora disponible como beta únicamente en EE UU, que consiste en que el buscador ofrece respuestas a determinadas búsquedas con una breve respuesta generada por Inteligencia Artificial (IA) y la posibilidad de seguir explorando ese tema.

Como uno de los ejemplos Google muestra esta respuesta sobre la búsqueda ¿Por qué las palomitas están asociadas las películas?

Google Search Generative Experience (SGE)

Como se ve en la imagen, Google ofrecerá formas de profundizar en el tema preguntado, con más enlaces, una forma de refinar la consulta sin tener que ofrecer más contexto.

Google cree que uno de los verticales en que tendrá más sentido este tipo de respuesta generada por Inteligencia Artificial es en las búsquedas relacionadas con compras, en la fase de investigación.

Algunos de los beneficios de este tipo de búsqueda son: 

  • Los usuarios pueden hacer preguntas en lenguaje natural.
  • El uso de Inteligencia Artificial hará posible que las respuestas sean más precisas y relevantes.
  • Proporciona más contexto, esto permite dar a los usuarios respuestas más completas.

Como en el caso de otros tipos de respuesta de Google que influyen en el efecto zero click search, páginas de resultados en las que no hay clics porque Google ya da la respuesta, la SGE puede hacer disminuir el tráfico a posibles sitios web con respuestas, pero formar parte de los sitios que Google utiliza para contextualizar puede dar visibilidad a las fuentes.

EEAT: la importancia de la autoría

Con el incremento continuado de contenido generado por Inteligencia artificial, Google va a mejorar la visibilidad de contenido de calidad generado por humanos, por expertos en un tema. 

El concepto de autoría, factor de posicionamiento desde hace tiempo, va a cobrar más importancia. 

Hace tiempo que Google tiene en cuenta el expertise de los autores de cualquier contenido, pero continúa siendo muy común en muchas organizaciones que la voz de la marca es, por definición, impersonal. Esto es lo que debe cambiar en las organizaciones, dando voz a quien tiene expertise sobre alguno de los temas relevantes para la compañía.

Por ello, es esencial continuar trabajando la marca en su propuesta de valor, humanizando nuestros contenidos, identificando autores y su experiencia. Debemos crear páginas de nuestros autores con información sobre ellos, y links a sus perfiles en redes sociales.

De esta forma reconocemos su autoría y nuestros contenidos se beneficiarán de un impulso SEO por estar escritos por expertos contrastados en la temática.

Experiencia de uso/Intención del usuario

Las core web vitals, métricas relacionadas con la experiencia del usuario, van a seguir teniendo una importancia enorme.

Core web vitals

Estas métricas, que se relacionan con la velocidad de carga, la capacidad de respuesta y la estabilidad visual de una página para los usuarios, van a tener una modificación en 2024: la Interaction to Next Paint (INP), que sustituirá a FID.

Interaction to Next Paint (INP)

La INP es una métrica que mide la capacidad de respuesta general de una página web a las interacciones del usuario. Se mide observando la latencia de todas las interacciones de clic, toque y teclado que ocurren a lo largo de la vida útil de la visita de un usuario a una página.

Esta nueva métrica sustituirá a FID (First Input Delay), que únicamente medía la primera interacción. Por ello, la buena experiencia de usuario durante todas sus interacciones en una página pasa a ser relevante para SEO.

Y además de la experiencia de uso, continuar atendiendo a la intención del usuario al crear y optimizar contenido continuará siendo esencial.

Hace ya años que los mejores contenidos no responden a keywords, sino a satisfacer las intenciones de los usuarios. Simplificando, estas intenciones pueden ser informaciones, navegacionales, comerciales o transaccionales. 

Según datos de Semrush, estas intenciones de usuario no son estáticas: cada vez las búsquedas son más conversacionales, utilizando lenguaje natural (ya que con la inteligencia artificial los buscadores nos entienden mejor) y además las búsquedas tienen un componente más comercial y transaccional, en detrimento de las informacionales y navegacionales, que pierden peso.

Por ello, optimizar nuestro contenido para este tipo de búsquedas, más long tail pero al mismo tiempo más comerciales, será relevante para mejorar nuestro posicionamiento orgánico.

El impacto de las tendencias económicas en las búsquedas
El impacto de las tendencias económicas en las búsquedas

Estar atento a la evolución en las búsquedas y en la forma de buscar es importante para las marcas que quieran entender las motivaciones de los consumidores.

Los cambios sociales y económicos modifican nuestros comportamientos, y en consecuencia también tienen impacto en lo que buscamos y en cómo lo buscamos.

Los profundos cambios debidos a la COVID, la crisis económica y las consecuencias de la guerra en Ucrania han alterado patrones de consumo y eso se refleja en las tendencias de búsqueda que Google publica periódicamente.

En su última publicación, el buscador destaca cómo la inestabilidad económica nos ha hecho más prudentes a la hora de comprar. Por ello, se incrementa el valor de la confianza que transmite una marca, a través de las reseñas, la popularidad de sus productos y todo lo relacionado con la sostenibilidad.

Un ejemplo que pone Google directamente relacionado con las búsquedas en España es el incremento del 1200% interanual en búsquedas relacionadas con la tarifa TUR del servicio de gas (tarifa regulada por la Administración que es más económica y a la que se pueden acoger la mayoría de los consumidores residenciales). O el incremento del 120% de búsquedas relacionadas con aire acondicionado portátil.

Con respecto al ahorro y la sostenibilidad, una búsqueda en aumento en España es la de “Coches híbridos de segunda mano”, +120% interanual.

Esta tendencia de búsquedas en España se produce también a nivel global, con incrementos en las búsquedas relacionadas con el encarecimiento de los alimentos y el ahorro de energía.

Búsquedas que evolucionan en el tiempo

De hecho, las búsquedas sobre sostenibilidad empezaron a despuntar en España en 2016, pero como suele suceder a medida que los consumidores se familiarizan con un concepto novedoso, esas búsquedas se van transformando, algo a lo que deben estar atentas las organizaciones.

Por ejemplo, así han evolucionado las búsquedas sobre el concepto de sostenibilidad en España:

sostenibilidad-google

Como se puede ver, las búsquedas se hacen más específicas.

Búsquedas de proyectos colectivos y solidaridad

Las dificultades del entorno socioecoómico también han llevado al aumento de búsquedas relacionadas con proyectos colectivos, a un incremento de las búsquedas solidarias y sobre la identidad de género. El incremento de búsquedas:

  • “proyecto comunitario”: +40%
  • “cómo ayudar a estudiantes”: +55%
  • “ayuda ucrania”: +600%
  • “donar alimentos”: +125%
  • “lgtb significado”: +25%
  • “género fluido”: +40%

Dado el incremento de estos tipos de búsquedas, desde Google apuntan que las marcas deben generar confianza entre los consumidores. Para ello, deben pasar de las palabras a los hechos y comprometerse de verdad con sus KPIs de sostenibilidad y con sus consumidores.

Las búsquedas como método de planificación de consumo

Un punto de inflexión muy relacionado con la pandemia es la gestión del estrés y la mayor tendencia a valorar la conciliación, así como una mayor planificación del consumo. Como muestra, los siguientes incrementos de búsquedas:

  • Búsquedas que incluyen el concepto “mejor momento para”, por ejemplo “mejor momento para comprar una casa”: +30%
  • Baja por ansiedad: +45%
  • Empleos con teletrabajo: +40%

Las marcas pueden tomar las tendencias de búsqueda como un barómetro de las necesidades cambiantes de sus consumidores. Estar atento a estas señales puede significar actuar antes para cubrirlas mejor.

Actualización del algoritmo de Google sobre el contenido útil
Actualización del algoritmo de Google sobre el contenido útil

Google ha implementado una nueva modificación en su algoritmo para premiar el contenido útil (creado por personas para personas).

Google acaba de lanzar la actualización en todos los idiomas de su modificación de algoritmo relacionada con el contenido útil.

Esta modificación de su algoritmo, que para el idioma inglés se llevó a cabo en agosto de 2022, alcanza ahora a los contenidos en el resto de idiomas.

Contenido útil: creado por personas y para personas

El objetivo de Google con este cambio es asegurar que en las páginas de resultados de búsqueda se muestre más contenido original y útil, y detallan esa utilidad como “contenido creado por personas y para personas”.

Google no suele dar mucha información sobre sus actualizaciones, para no dar pistas que permitan forzar su algoritmo. Sin embargo, en esta ocasión han sido más explícitos que otras veces.

Un propietario de sitio web puede valorar si está ofreciendo contenido útil si contesta afirmativamente al siguiente listado de preguntas sobre lo que publica:

  • ¿Tienes una audiencia existente o prevista para tu empresa o sitio a la que le resultaría útil el contenido si se pusiera en contacto directamente contigo?
  • ¿Tu contenido está basado claramente en experiencias de primera mano y en un conocimiento profundo de estos productos (como la experiencia derivada de haber usado un producto o servicio, o de visitar un lugar)?
  • ¿Tu sitio tiene un objetivo o enfoque principal?
  • Después de leer tu contenido, ¿alguna persona sentirá que ha aprendido lo suficiente sobre un tema como para conseguir su objetivo?
  • ¿Las personas que lean tu contenido sentirán que han tenido una experiencia satisfactoria?

contenido-util-google

Esta modificación del algoritmo de Google basada en la utilidad del contenido no es una actualización leve como tantas decenas que hace el buscador al año. Esta es una de las relevantes, y tendrá impacto en las páginas de resultados y en los rankings de sitios web con contenidos muy orientados a posicionar bien.

De hecho, este algoritmo no está basado en páginas, sino en sitios, lo que quiere decir que todo el contenido de un sitio web que tenga páginas de contenido poco útil tiene menos opciones de posicionar bien. Todo el contenido, incluido el útil. El algoritmo asumirá que los sitios que tienen bastante contenido poco útil no son buenos, y que hay otro contenido de otros sitios que es mejor mostrar.

Por el mismo motivo, retirar el contenido que no sea útil podría mejorar la clasificación del contenido de un sitio que sí sea útil.

Sin embargo, los propietarios de sitios web con contenido poco útil deben esforzarse por retirarlo cuanto antes: Google ha especificado que la retirada del contenido poco útil una vez que se han perdido posiciones en las páginas de resultados de búsqueda por este algoritmo es muy a largo plazo, fundamentalmente porque el buscador quiere asegurarse de que efectivamente esa eliminación del contenido poco útil no es pasajera, sino prolongada en el tiempo.

Este algoritmo no es una acción manual de Google. Este nuevo proceso declasificación del contenido es completamente automático y utiliza un modelo demachine learning. A partir de ahora constituye una nueva señal entre las muchas que Google evalúa para clasificar el contenido.

Principales áreas y tipos de contenido afectados

Según el medio especializado Search Engine Land, las áreas más afectadas (pero no las únicas) por esta actualización serán las de la formación informal (tutoriales), contenidos de arte y entretenimiento, los relacionados con compras (reseñas de productos) y los relacionados con tecnología.

Si lo pensamos bien, son áreas en las que resulta sencillo agregar información de otras fuentes y crear una información sin aportar realmente nada novedoso.

Incluso, Google ha puesto un ejemplo: al buscar información sobre una película nueva, hasta ahora es habitual encontrar artículos que agregan opiniones de otros sitios sin aportar una perspectiva distinta más allá de lo que ya existe en los otros sitios. Esto no resulta muy útil si estás buscando información realmente nueva sobre esa película.

Con esta actualización del algoritmo para favorecer el contenido útil, tiene más opciones una reseña nueva, creada por una persona pensando en su audiencia, que un compendio o resumen de extractos de opiniones de otros sitios web.

IndexNow: protocolo para indexar páginas con cambios
IndexNow: protocolo para indexar páginas con cambios

Con IndexNow los propietarios de sitios web consiguen que los buscadores rastreen e indexen antes las páginas con cambios.

A finales de 2021 Microsoft (Bing) y Yandex presentaron la iniciativa IndexNow, un nuevo protocolo de indexación que quiere mejorar cómo los buscadores encuentran contenidos para indexarlos.

Cuando los propietarios de sitios web publican nuevo contenido, esperan que este pueda ser accesible cuanto antes para los usuarios de buscadores, ya que estos siguen siendo una de las fuentes de tráfico más potentes.

Sin embargo, a menos que el sitio web sea un medio de comunicación potente con una gran frecuencia de publicación y mucha audiencia, es posible que los buscadores no encuentren nuevo contenido con tanta frecuencia como a las organizaciones les gustaría. Dependiendo del sitio, el plazo entre la publicación de nuevo contenido y su indexación por parte de los buscadores puede ser de días o incluso de semanas.

Esto resulta en pérdidas de oportunidad de tráfico e incluso de negocio para estas organizaciones, que además pueden verse perjudicadas en caso de que un competidor sí vea indexado un contenido similar.

IndexNow, nuevo protocolo para la indexación de contenidos modificados

Para resolver esta situación se presentó IndexNow. Este nuevo protocolo es una forma fácil para que los propietarios de sitios web informen de forma instantánea a los motores de búsqueda sobre los cambios de contenido en su sitio web.

IndexNow

Simplificando, IndexNow es como un ping para que los buscadores sepan que se ha añadido, se ha actualizado o se ha eliminado una URL y su contenido. De este modo, los motores de búsqueda pueden reflejar rápidamente este cambio en sus resultados de búsqueda.

Al comunicar a los buscadores que el contenido de una URL ha cambiado, los propietarios de sitios web ofrecen una clara señal a los buscadores de las URL que son importantes para ellos, lo que ayuda a los buscadores a priorizar estas URL en su rastreo, lo que limita la necesidad de explorar todas las páginas de un sitio para asegurarse de si el contenido ha cambiado. La idea es que en el futuro los buscadores sean más eficientes en su rastreo de sitios gracias a IndexNow.

De momento los buscadores que han implementado IndexNow son Bing y Yandex, pero desde Google han confirmado a Search Engine Journal que testearán el protocolo y no descartan adoptarlo.

¿Cómo funciona IndexNow?

Es muy fácil adoptar IndexNow por parte de los sitios web. Estos son los pasos:

  • Generar una clave soportada por el protocolo utilizando la herramienta online de generación de claves.
  • Alojar la clave en un archivo txt en la raíz de nuestro sitio (como se hace para verificar la propiedad de un sitio por ejemplo con Search Console).
  • Enviar URLs cuando se añaden, cambian o se eliminan. Es posible hacerlo de una en una o enviando un set de URLs vía API.

Enviar una URL es tan sencillo como enviar un simple http request que contenga la URL que cambia y la clave.

Por ejemplo, así: https://www.bing.com/indexnow?url=url-cambiada&key=tu-clave sustituyendo el texto que hemos indicado en negrita por la URL que cambia y la clave de nuestro sitio.

Todos los buscadores que participan de este protocolo tienen un acuerdo por el cual aunque el propietario del sitio web se lo comunique únicamente a uno de ellos, todos reciben el ping solicitando esa indexación de contenido modificado.

Las URL que se envían utilizando este protocolo cuentan contra la cuota de rastreo de nuestro sitio, así que debemos estar seguros de que son relevantes para nosotros.

Un punto importante a destacar es que este protocolo no obliga a la indexación: si nuestra página no cumple los requisitos o normas de alguno de los buscadores, estos la pueden ignorar y no indexarla.

Como resumen, IndexNow facilita, especialmente a los sitios web pequeños y medianos, una forma de comunicar de forma rápida a los buscadores los cambios realizados en las páginas de nuestro sitio, lo que puede acelerar la indexación de esos cambios.

Cómo analizar una caída de tráfico SEO
Cómo analizar una caída de tráfico SEO

La mayor parte de sitios web han sufrido en algún momento una caída de tráfico SEO, el tráfico que viene de buscadores de forma orgánica. Identificar la causa concreta y solucionarlo no es tarea fácil.

Para los sitios web que tienen dependencia del tráfico orgánico una caída de tráfico SEO puede ser más grave que para los sitios que reciben tráfico de forma diversificada de otras fuentes de tráfico (redes sociales, tráfico pagado de buscadores, afiliación, etc.). Pero es perjudicial sin duda para todos, dado que se trata de una de las fuentes de tráfico más relevantes en volumen de visitas.

Y no suele ser sencillo revertir la situación: el motivo es que son muchas las causas que pueden haber llevado a ese resultado. Para empezar, puede haber sido por un cambio en el sitio web pero también puede haber sido por cambios en el algoritmo de Google.

Simplemente lo que hasta un determinado momento funciona a partir de un cambio en el algoritmo deja de funcionar. Grandes cambios de Google como Panda (2011) o Penguin (2012) supusieron en su momento que muchos sitios con muy buenos rankings perdieran un enorme volumen de tráfico. Algunos sitios supieron modificar su forma de hacer SEO para recuperarse pero otros, que habían basado su crecimiento en algo que el algoritmo permitía hasta que no lo permitió, perdieron mucha de su cifra de negocio y de relevancia al no poder adaptarse y revertir lo que les había hecho caer.

Como decimos, en general las caídas de tráfico SEO se pueden contrarrestar, pero no suele ser fácil saber exactamente qué ha ocurrido.

Tipos de caída SEO

Durante años, ante una caída dramática de tráfico, los propietarios de sitios web se han sentido indefensos ante Google, porque no hay demasiada interlocución posible con ellos. Se puede recurrir a foros de ayuda, pero puede ser lento y no es un soporte personalizado como el que se ofrece para los anunciantes en Google Ads.

Ahora Google ha publicado un artículo en el que identifica las distintas causas de caída de tráfico y cómo los sitios web pueden actuar para revertirlas.

Según el artículo de Google, el tráfico SEO puede descender por cinco causas principales:

  • Problemas técnicos: errores que pueden impedir que Google rastree, indexe o muestre el contenido de las páginas. Puede ser por la disponibilidad del servidor, por un erróneo robots.txt, por errores de página no encontrada... Estos errores pueden darse en todo el sitio o a nivel de página.
  • Problemas de seguridad: el sitio está afectado por una amenaza de seguridad, y Google puede alertar a los usuarios antes de que lleguen a él con advertencias o páginas intersticiales. Esto reduce considerablemente el tráfico SEO.
  • Acciones manuales: el sitio web ha sido penalizado porque alguna de sus páginas o todo el sitio contravienen las directrices de Google. Por ejemplo, por la compra de enlaces.
  • Cambios algorítmicos: Las actualizaciones relevantes del algoritmo suelen modificar el posicionamiento de algunas páginas en los resultados de búsqueda de Google.
  • Estacionalidad o cambios en la demanda: a veces, los cambios en el comportamiento de los usuarios pueden afectar a la demanda de determinadas consultas, ya sea como una tendencia nueva o por la estacionalidad del año.

El artículo incluye una imagen de cómo suelen quedar graficados algunos de estos descensos de tráfico SEO en función de su causa, es una pista para identificarlos:

caída tráfico SEO

Cómo proceder ante una caída de tráfico SEO

Más allá de ver el “dibujo” de la línea de tendencia para identificar la caída, es conveniente analizar el informe Rendimiento de la Búsqueda en la Search Console.

Debemos ampliar el periodo de análisis del que aparece por defecto hasta el máximo (actualmente 16 meses). Esto nos permitirá hacer “zoom out” y obtener contexto: por ejemplo, identificar si el descenso se produce cada año en la misma fecha por un tema de estacionalidad.

En general es una buena práctica comparar el periodo de descenso con otro periodo similar.

Podemos utilizar las distintas partes del informe para averiguar si el descenso solo se ha producido en algunas consultas, URLs, países, dispositivos… También es recomendable analizar los distintos tipos de búsqueda por separado, para entender si el descenso de tráfico SEO se ha producido en la búsqueda web, en Google Imágenes o en las búsqueda de vídeo o noticias.

En definitiva, ante una caída de tráfico SEO, es importante tener claras las acciones SEO realizadas en el último año, conocer los cambios relevantes del algoritmo y analizar muy bien qué partes de nuestro sitio están afectadas. Estos 3 puntos nos deben llevar a la identificación precisa de la causa, primer paso para poder solucionarlo.

Las búsquedas sin clics en Google se incrementan cada año
Las búsquedas sin clics en Google se incrementan cada año

Según diversos estudios, cada año aumentan las búsquedas sin clics en Google, ya que directamente se obtiene la respuesta sin que el usuario tenga que hacer click en los resultados que se ofrecen.

Diversos estudios muestran que cada año las búsquedas sin clics en Google (en inglés zero-click searches) se incrementan.

Se trata de búsquedas para las que Google ofrece directamente la respuesta en los resultados de búsqueda, por lo que el usuario no tiene necesidad de hacer clic en ninguno de los resultados que se ofrecen, ya que ha obtenido la respuesta directamente en Google.

El estudio más conocido es el que ha realizado durante los dos últimos años Rand Fishkin, cofundador de Moz y actualmente en Sparktoro, empresa que ofrece servicios para la mejor gestión de audiencias digitales.

En 2019 Fishkin estimó que el 50% de las búsquedas en Google terminaban sin clics, y en 2020 elevó la cifra al 65%. Los datos no son totalmente comparables, porque utilizó procedimientos distintos, pero en cualquier caso la valoración, como es lógico, es que se trata de un porcentaje muy elevado.

Una cifra que en cierta forma refuerza el monopolio de Google: 91% de cuota del mercado de buscadores en todo el mundo y en EE UU 95% de cuota de publicidad en buscadores y 50% de cuota de publicidad display.

Búsquedas sin clics: ¿qué son y por qué se incrementan?

Las búsquedas sin clics se producen cuando Google presenta resultados que ofrecen la respuesta a la búsqueda del usuario, algo que ocurre con más frecuencia si la búsqueda es una pregunta o lleva implícita una pregunta, como en el ejemplo siguiente:

fragmento destacado

Las respuestas que ofrece Google pueden adoptar múltiples formatos: tabla como en el ejemplo, listados, texto, carruseles (como es el caso para la búsqueda cartelera), vídeos (para tutoriales o trailers de películas...).

¿Por qué esta evolución desde los 10 links azules de hace 20 años a la experiencia actual en páginas de resultados de búsqueda? Vamos a explicar los dos lados de la historia, la versión más común externa a Google y la versión de Google.

Google, como cualquier empresa privada, quiere monetizar a los usuarios de su sitio web. Y aunque lleva años intentando diversificar sus fuentes de ingresos, continúa teniendo una dependencia enorme de su sistema de publicidad, de Google Ads. Y por ello necesita que pasemos mucho tiempo en su página.

El caso es que a pesar de la cuota de mercado enorme que tiene en el terreno de los buscadores, para Google no es fácil retener a los usuarios en su web. La amplia popularización de las redes sociales (primero Facebook, luego Instagram, ahora Tik Tok) en las que sí pasamos mucho tiempo conectados no ayuda a Google. Su intento con Google+ en 2011 nunca despegó y acabó cerrando en 2019.

A esto se le une la competencia creciente de Amazon. Amazon es, al final, un buscador de productos. Muchas búsquedas con intención de compra (más de la mitad, según algunos estudios) empiezan directamente en Amazon, así que directamente Google ni ve pasar a esos usuarios. Y ahí sí le duele a Google.

Esta competencia de Amazon que afecta directamente a su bolsillo es muy probablemente una de las causas que ha empujado al buscador a modificar las páginas de resultados de búsqueda para conseguir que como usuarios y consumidores permanezcamos más tiempo en las páginas de resultados y, por estadística, se incrementen los clics en los anuncios.

De hecho, aunque con esto nos salimos de los resultados orgánicos para hablar de los de pago, el gran incremento de búsquedas para las que aparece Google Shopping como resultado es también para intentar competir con Amazon en esas búsquedas dando resultados más orientados a la transacción. Como consecuencia de ello, y que los resultados de Shopping aparecen antes que los de anuncios de texto, muchas organizaciones están invirtiendo ya más en Shopping que en los anuncios de texto en Google Ads.

Pero volviendo a los resultados orgánicos, las búsquedas sin clics afectan a todas las organizaciones que deben trabajar el SEO, generalmente para las búsquedas long tail de su nicho, con tal de tener opciones de aparecer como respuesta de búsqueda y, aun sin clic, obtener visibilidad y ganar autoridad.

La versión de Google sobre las búsquedas sin clic

En muchas ocasiones en que se critica o se publican opiniones sobre Google el buscador prefiere hacer caso omiso, pero en este caso ha contestado, de forma oficial, a través de Danny Sullivan, experto en SEO, fundador de Searh Engine Land y actualmente trabajador de Google con la misión de educar al público sobre la búsqueda.

Lo primero y más importante es que en su artículo Google no desmiente el incremento de búsquedas sin clic. De hecho, no da ningún porcentaje. La defensa se centra en explicar su versión sobre los tipos de resultados de búsqueda en función de cómo buscan los usuarios y en afirmar que cada año que pasa lleva más tráfico a los sitios web, sin dar ningún dato. Pero claro, ambas cosas pueden ser ciertas: que cada año se registra más tráfico desde páginas de resultados a sitios web y también que se incrementan las búsquedas sin clics.

Y en cuanto a la defensa cualitativa, el razonamiento de Sullivan es el siguiente: no se trata solo de clics, sino de conectar a los usuarios con las organizaciones por todos los métodos posibles, lo que también incluye llamadas desde los resultados.

Google argumenta que son múltiples las razones que pueden causar que una búsqueda acabe sin clics:

  • Muchas búsquedas son refinadas en búsquedas posteriores (como cuando buscamos "zapatillas deportivas" y en la página de resultados nos damos cuenta de que las queríamos negras. Para estos casos Google añade las búsquedas relacionadas.
  • Búsquedas de información super precisa y concreta: el tiempo, resultados deportivos, conversiones de moneda... Google ofrece, como muchos otros buscadores, la respuesta directamente.
  • Especialmente para negocios locales, no todo acaba en un clic de visita a la web: otras formas de ayudar a los usuarios son las llamadas de teléfono, las indicaciones para llegar, la posibilidad de reservar mesa en un restaurante... Tal vez no son clics, pero significan negocio para las marcas.

Como último punto Sullivan da el único dato numérico del artículo: si bien Google era conocido por incluir 10 links azules en su página de resultados, ahora los enlaces (en sus diversas formas) son en promedio 26 en la primera página de resultados en móvil. Por lo que en teoría las opciones de que haya clic son mayores.

La intención del buscador no es en absoluto revertir la tendencia y volver a los 10 links azules: en su opinión, con las funcionalidades introducidas, que no eliminan completamente los resultados de enlaces, responden mejor a las intenciones de búsqueda de los usuarios.



La experiencia de usuario como factor SEO en 2021
La experiencia de usuario como factor SEO en 2021

Google incorporará a los factores de posicionamiento en 2021 una experiencia de usuario correcta, medida en función de 3 parámetros relacionados con la carga de una página web.

Desde hace años una correcta experiencia de usuario tiene peso en el posicionamiento de una web en Google. Por ejemplo, por la rapidez de carga de una página o la perfecta adecuación de cualquier web a los dispositivos móviles.

Ahora Google da un paso más y valorará el rendimiento de los sitios web en función de lo que ha denominado “Métricas web principales”, (Core Web Vitals, en inglés). Estas métricas están relacionadas con aspectos de un sitio web que afectan a la experiencia de usuario (UX): la carga de la página, la interactividad, y la estabilidad visual.

Dadas las circunstancias creadas por la crisis sanitaria mundial, Google ha anunciado que estos factores pasarán a ser parte del algoritmo en 2021, y que avisará con tiempo para que los sitios web se preparen.

Para poder prepararse, los propietarios de sitios web ya disponen en la Search Console de un informe sobre las Métricas web principales, que evalúa el rendimiento del sitio web en función de 3 parámetros.

UX y SEO: informes en la Search Console

En el informe "Métricas web principales" se puede ver el rendimiento de las páginas según datos de uso reales.

El informe muestra datos sobre tres métricas: el renderizado del mayor elemento con contenido (LCP), la latencia de la primera interacción (FID) y los cambios de diseño acumulados (CLS).

  • LCP: tiempo que tarda en renderizarse el mayor elemento con contenido visible a partir del momento en que el usuario solicita la URL. El mayor elemento suele ser es una imagen o un vídeo, aunque también puede ser un bloque grande de texto. Esta métrica es importante, indica que la URL se está cargando realmente.
  • FID: tiempo desde la primera interacción de un usuario con una página web (por ejemplo, cuando hace clic en un enlace o toca un botón) hasta que el navegador responde a esa interacción.
  • CLS: cuánto cambia el diseño de la página mientras se carga. El valor de esta métrica va de 0 (no ha cambiado nada) a 1 (el máximo nivel de cambio). Esta métrica es importante porque puede resultar molesto a los usuarios que los elementos de una página cambien de sitio mientras intentan interactuar con ellos.

Google proporciona unos valores en los que tiene que moverse un sitio web que proporciona una buena experiencia. Son los siguientes:

UX-SEO

Lógicamente, Google recomienda centrarse en las páginas de nuestro sitio web identificadas como lentas. Para ayudar a los sitios web con menos recursos técnicos, se proporcionan las siguientes indicaciones a tener en cuenta:

  • Reducir el tamaño de la página: es recomendable que una página y todos sus recursos tengan menos de 500 kB en total.
  • Disminuir el número de recursos de la página hasta los 50, para conseguir el mejor rendimiento en dispositivos móviles.
  • Utilizar AMP, (Accelerated Mobile Pages), un componente de creación de estructuras web que prácticamente garantiza que las páginas se carguen rápido tanto en dispositivos móviles como en ordenadores.

En resumen, Google sigue premiando con mejores rankings aquellas páginas que ofrecen calidad, ya sea en contenidos, en rapidez de carga, en adaptación a dispositivos móviles y, a partir del año que viene, en una muy buena experiencia de usuario.



SEO para las búsquedas de voz con datos estructurados
SEO para las búsquedas de voz con datos estructurados

Uno de los puntos que puede marcar la diferencia en el SEO en 2020 es el uso de datos estructurados para páginas de preguntas y respuestas, dado que nos permite mejorar en resultados de búsqueda y prepararnos para ser relevantes en las búsquedas por voz.

Tanto con nuestros móviles como con los asistentes domésticos tipo Google Home, Alexa o Homepod de Apple, cada vez hacemos más uso de la función de buscar por voz. Este tipo de búsquedas será probablemente y en pocos años mayoritaria.

Esto significa conseguir información sin recurrir a sesiones de navegación, sin tener que hacer scroll por resultados. Y la obtención de respuestas a partir de preguntas naturales, no de palabras clave.

Por eso, y para que tu sitio web pueda anticiparse y prepararse para este escenario, conviene utilizar los datos estructurados en tu sitio web, especialmente los tipos de schema.org QAPage, Question y Answer. El motivo es que estos datos estructurados Google los identifica rápidamente como útiles para dar respuesta a preguntas naturales que cada vez son más frecuentes.

Y en cualquier caso, mientras la búsqueda por voz no sea todavía mayoritaria, utilizar estos datos estructurados te proporciona dos ventajas:

  • La posibilidad de aparecer en las primeras posiciones orgánicas de resultado de búsquedas con el fragmento de contenido de tu página.
  • Para poder tener este tipo de páginas tienes que trabajar contenido que sea útil para tus clientes y potenciales clientes, con lo que estás trabajando contenido para situarte o afianzarte como un referente en tu sector.

Veamos un ejemplo de cómo las páginas etiquetadas correctamente pueden mostrar un resultado enriquecido en la página de resultados de búsqueda. Este es un resultado para la consulta ¿Cómo quito un cable atascado en un puerto USB?, si se ha etiquetado la página para responder esa pregunta:

Q&A

Qué es Schema

Google, Bing y Yahoo definieron en 2011 un estándar de datos estructurados que los sitios web pueden utilizar para mejorar la visibilidad de sus sitios web.

Schema ayuda a los buscadores a entender mejor los sitios web, etiquetando los contenidos no solo para ayudar a mostrarlos correctamente sino para ofrecer información para su interpretación.

Schema.org proporciona centenares de esquemas de etiquetado semántico que nos permiten utilizar datos estructurados específicos para todo tipo de contenido, por ejemplo películas, libros, personas, restaurantes, eventos, lugares, reviews, y también preguntas y respuestas.

Question & Answer: cómo funciona

Para ayudar al buscador a entender que el contenido de una página concreta tiene respuestas a una pregunta, podemos usar el marcado de datos QAPage, que es el contenedor idóneo si en la página los usuarios pueden enviar varias respuestas.

En el caso de que la página sea unas FAQ, con varias preguntas y respuestas y donde los usuarios no pueden enviar más respuestas, es conveniente utilizar el marcado de datos FAQPage.

Tipos de Question y Answer

Para poder hacer que el buscador entienda qué parte del contenido son las preguntas, utilizaremos el tipo de marcado Question.

  • En el tipo de marcado Question las propiedades obligatorias que tenemos que especificar son:
  • answerCount, que especifica el número de respuestas a la pregunta,
    acceptedAnswer (para la respuesta aceptada como principal) o suggestedAnswer (para otras respuestas posibles), que indica respuestas a la pregunta.
  • text, que especifica el texto de la pregunta.
    Otras propiedades son optativas, y tenerlas en cuenta aumenta las posibilidades de que Google muestre nuestro contenido como respuesta en sus resultados de búsqueda.

Para especificar al buscador cuáles son las respuestas utilizaremos el tipo de marcado Answer. En él, la única propiedad obligatoria es text, que indica el texto completo de la respuesta. Sin embargo, como en el caso del tipo Question, hay otras propiedades recomendadas, como upvoteCount, que indica el número total de votos que ha recibido esta respuesta.

La búsqueda de Google admite datos estructurados en 3 formatos:

  • JSON-LD (opción recomendada por Google)
  • microdatos
  • RDFa

El aspecto diferencial de JSON-LD es que a diferencia de RDFa o microdatos, el etiquetado no se realiza como anotación intercalada en el código fuente. En lugar de ello, los metadatos se implementan dentro de una etiqueta separada del contenido, lo que facilita la organización del etiquetado y la identificación y resolución de errores.

Utilizar los datos estructurados  para SEO mediante la identificación de nuestras páginas de preguntas y respuestas nos puede permitir aparecer como referencia en los resultados de búsqueda y empezar a coger posiciones para la popularización de las búsquedas por voz.

Las tendencias de búsqueda como herramienta de investigación
Las tendencias de búsqueda como herramienta de investigación

Tener en cuenta las tendencias de búsqueda es esencial para entender la evolución del interés en cualquier tema. Además, aporta información muy valiosa para la toma de decisiones en los negocios.

Una de las responsabilidades más relevantes de un especialista SEO es la investigación de palabras clave. Un análisis detallado de cuáles son las palabras que se utilizan en los buscadores para encontrar información sobre un tema determinado es lo que nos permite utilizarlas en nuestros contenidos y optar a posicionar por ellas.

Cuando no se efectúa investigación de palabras clave, es fácil errar en la elección de las palabras más usadas o caer en el uso de términos habituales en la organización o sector, pero no para los consumidores.

La investigación de palabras clave no debe considerarse un trabajo a modo "one shot". No debemos conformarnos con una foto fija por dos motivos: la estacionalidad de la demanda (y tendencias más a largo plazo con el paso del tiempo) y la intención del consumidor

El análisis de las tendencias de búsqueda, cómo el volumen de búsquedas evoluciona en el tiempo, aporta información muy valiosa para las organizaciones. 

Existen muchas herramientas, de pago y gratuitas, para analizar las tendencias de búsqueda: la más conocida es Google Trends, pero existen muchas otras, como Trennd, especializado en búsquedas emergentes, el planificador de palabras clave de Google o SEMrush.

Estas son 4 formas en que las tendencias de búsqueda sirven como herramienta de investigación:

1) Estacionalidad. Con las tendencias de búsqueda podemos ver cuándo empiezan y finalizan los periodos durante el año en que las palabras clave son más usadas. Como por ejemplo, con la palabra "helados".

tendencias de búsqueda

2) Longevidad de una tendencia. Las herramientas de tendencias de búsqueda nos ayudan a ver cuándo emerge con rapidez el interés en un tema y cuándo empieza a descender. Por ejemplo, el gráfico siguiente muestra la evolución en el tiempo de la búsqueda de Snapchat en España.

Snapchat

3) Análisis de subfamilias o categorías específicas de un negocio. Como por ejemplo, el análisis de vestidos para una marca de ropa, donde se ve que el interés por esta familia empieza a decrecer en los dos últimos años.

Vestidos tendencia

4) Análisis de sector y competidores. Podemos hacer seguimiento de la evolución de la demanda de los servicios de un sector de actividad o marcas concretas, como por ejemplo, en el siguiente caso de compañías aéreas.

aerolíneas

La influencia de la intención de búsqueda

La intención de búsqueda o search intent juega un papel determinante en los resultados que esperamos encontrar al realizar búsquedas. Es importante tener en cuenta este punto en el análisis de tendencias, porque podremos crear mejores contenidos, más adaptados a esa intención, si conocemos qué búsquedas corresponden a cada momento del journey del consumidor.

Algunos tipos de intención de búsqueda son las informacionales, las de navegación, las transaccionales, las de comparación de servicios o precios o las locales.

Y para ilustrar la importancia de tener en cuenta cómo las tendencias de búsqueda se relacionan con los distintos momentos del consumidor, justamente Google acaba de publicar un estudio en el que se muestra que las búsquedas locales.

Así, aquellas que por ejemplo incluyen "cerca" o "cerca de mí", se producen con una intención distinta en función del sector de actividad: mientras que para comprarse un coche esa búsqueda de concesionario se produce en un momento inicial del proceso de compra, bastante upper funnel, en lo que se refiere a los viajes esas búsquedas se producen ya en destino, que es cuando de hecho se producen casi la mitad de las reservas de actividades.

Conjugar las tendencias de búsqueda junto con los momentos del cliente reflejados en su intención de búsqueda nos permitirá ser más certeros en nuestras comunicaciones y comprender mejor a nuestro público objetivo.

Presupuesto de rastreo para optimizar tu sitio web
Presupuesto de rastreo para optimizar tu sitio web

Los sitios web con gran volumen de páginas deben tener en cuenta el presupuesto de rastreo por parte de Google, ya que la capacidad del buscador de indexar contenidos es limitada. Y el objetivo no es únicamente conseguir que indexe solo las páginas relevantes, sino que las que no son relevantes no lleguen a ser rastreadas.

El presupuesto de rastreo es el número de URLs que el robot de Google puede y quiere rastrear de un determinado sitio web, por lo que afecta a la indexación de páginas web. Y ese número de URLs depende de la frecuencia de rastreo y de la demanda de rastreo.

El motivo de que exista el concepto de presupuesto de rastreo y que sea importante es que Google reconoce abiertamente que tiene un número finito de recursos y, por lo tanto, no puede indexar la prácticamente infinita cantidad de contenido que existe en Internet. Por ello, debe optimizar sus recursos y asegurarse de que lo que indexa es realmente relevante. Ese es un primer motivo de peso; el segundo, Google tiene que limitar la indexación en los sitios web porque su robot debe asegurarse de que sus peticiones no ralentizan a los sitios web, perjudicando la experiencia de los usuarios.

La frecuencia de rastreo representa el número de conexiones paralelas y simultáneas que utiliza el robot de Google para rastrear el sitio web, y también el tiempo de espera entre cada obtención de información. La demanda de rastreo depende de la popularidad de la URL y de la inactividad; es decir, que Google rastreará más las URL populares y también aquellas que parezcan inactivas en su índice, algo que no le gusta y por ello vuelve a chequear el contenido para comprobar.

Acciones para optimizar el presupuesto de rastreo

Dadas estas definiciones, ¿qué podemos hacer para optimizar el rastreo de nuestro sitio web y, por tanto, optimizar la indexación de sus páginas? En general, debemos asegurar que el sitio web carga rápido, está limpio, no ofrece spam ni tiene contenido pobre o duplicado. Es más fácil decirlo que llevarlo a cabo, por ejemplo:

  • Navegación por facetas: este tipo de navegación por filtros, obligada en sitios grandes con miles de productos, puede suponer un reto importante para el presupuesto de rastreo. Cada combinación de filtros puede ser rastreada e indexada, haciendo que Google se concentre en URLS que no queremos que se indexen. Para evitar problemas de contenido pobre, muchos sitios especifican URLS canónicas y efectivamente, esto evita que se indexen los filtros, pero no que se rastreen. Es decir, que el presupuesto de rastreo puede verse limitado por el hecho de que el robot rastree miles de páginas sin valor, y podamos estar perdiendo la oportunidad de que rastree otras con más valor. Es preferible utilizar combinaciones de "no index" y "no follow" para este tipo de filtros. No existe una solución válida para todos los casos, depende de los filtros y la categorización de productos.
  • Velocidad de carga: cuanto más rápido sea un sitio, mayor presupuesto de rastreo. Esta parte está clara: para el robot de Google, si un sitio es rápido significa que los servidores están en buen estado, y puede obtener más contenido con el mismo número de conexiones. En cambio, si hay muchos errores del tipo 5xx o con frecuencia se agota el tiempo de espera de las conexiones, significa lo contrario y el rastreo se ralentiza.
  • Páginas href lang y redireccionamientos: como en el caso de las URL canónicas comentadas antes, una buena implementación de redirecciones o de href lang para versiones en idiomas distintos de un mismo contenido son una buena práctica SEO para evitar problemas de ranking, pero son prácticas que pueden afectar negativamente el presupuesto de rastreo, porque, una vez más, no estamos impidiendo su rastreo.

En resumen, es importante tener en cuenta el concepto de presupuesto de rastreo, porque las buenas prácticas SEO habituales para conseguir buenos rankings suelen estar basadas en favorecer la indexación, pero no nos interesa que todas las páginas se rastreen y se indexen.

De todas formas, también es importante indicar que es muchísimo más importante tener en cuenta el presupuesto de rastreo en el caso de sitios web grandes que en el caso de sitios web con contenido limitado. Si tu sitio web tiene unas pocas miles de URL no deberías preocuparte, ya que Google no tendrá problema alguno en indexar todas las páginas. Pero si hablamos de decenas de miles de páginas, ahí sí. Y ese volumen de páginas es propio de muchos sitios web, no se limita a grandes medios como las webs de periódicos, sino que cualquier tienda online mínimamente potente puede alcanzar ese volumen de páginas con facilidad.

SEO para Angular JS: indexa tu web si usas Javascript
SEO para Angular JS: indexa tu web si usas Javascript

El uso de Javascript para una mejor experiencia de usuario, por ejemplo mediante el uso del cada vez más popular framework Angular, conlleva una serie de retos para el SEO. Es necesario asegurar que el contenido se indexa.

La necesidad de mejorar la experiencia de usuario, especialmente en el entorno actual en que la mayoría de sesiones se producen desde móvil, ha llevado a un incremento del uso de tecnologías que permiten agilizar la carga de contenidos y facilitan la personalización. Como siempre que se producen avances en desarrollo, aparecen complicaciones para la optimización en buscadores: históricamente a la hora de pensar en nuevos desarrollos se suele pensar en el usuario, pero los desarrolladores olvidan o desconocen que también los buscadores tienen que poder indexar el contenido.

Si los buscadores no indexan tus contenidos, no estás en sus índices ni puedes aparecer en los resultados de búsqueda: estás torpedeando uno de los canales de captación de tráfico más eficientes y rentables.

Angular es un framework Javascript que se centra en lo que hemos comentado, conseguir la mejor experiencia de usuario, especialmente para móvil. Sin embargo, a pesar de que es mantenido en parte por Google, es muy fácil cometer equivocaciones al desarrollar sitios web en Angular y que no todos los contenidos de tu sitio se indexen. El motivo por el que sucede esto es precisamente por la propia naturaleza de estos desarrollos. Javascript es útil para contenidos dinámicos, pero ¿cuáles de estos contenidos va a indexar el buscador y cuáles no?

Valga el símil de Google como biblioteca y el almacenamiento de documentos impresos para su consulta: al final Google es un robot que tiene que indexar un documento con unos contenidos "fijos", que son los que utilizará para determinar si esa página es o no relevante como resultado para unas determinadas búsquedas. Por ello, como especialistas SEO nos tenemos que asegurar de que la renderización de la página (lo que el navegador y el robot de Google finalmente llegan a "ver") coincide con lo que queremos indexar. 

Cómo asegurar el SEO de páginas con Angular o Javascript

Javascript modifica los contenidos que puede cargar una página. Lo más importante desde el punto de vista SEO es asegurarnos de que todo el contenido que queremos que se indexe se carga antes del Load Event, que es un evento que activa el navegador cuando el recurso Javascript y los recursos dependientes han finalizado su carga. Todo lo que ocurre en la página tras este evento no es indexable por los buscadores, y ese es el principal problema la mayor parte de las veces en que las páginas de Javascript no se indexan.

Una forma sencilla de comprobar si los contenidos de tu sitio web se indexan es utilizar la herramienta Fetch as Google (Explorar como Google) de la Search Console. La captura de pantalla que hace Google con esta función es la versión renderizada en el Load Event, utiliza el HTML renderizado y no el HTML inicial que aún no ha ejecutado Javascript, por lo que es una constatación válida de que el contenido se está indexando correctamente.

Fetch as Google



También se puede utilizar la función de Inspeccionar de los navegadores para extraer el código HTML finalmente renderizado en una página que usa Javascript.

En definitiva, nuestros ojos pueden engañarnos con el Javascript: lo que se acaba cargando en el navegador no es siempre lo que el buscador ha sido capaz de indexar. En un entorno en el que cada vez más sitios web utilizan Javascript como por ejemplo el framework Angular para mejorar la experiencia de usuario es importante entender que a pesar de las mejoras de Google (y no de todos los buscadores, sino fundamentalmente Google) a la hora de procesar e interpretar Javascript, aún tiene limitaciones. Por ello, asegurarse de que la indexación de nuestros contenidos es correcta es el primer paso para un SEO en condiciones. Sin indexación no hay ranking ni tráfico desde buscadores.

En Smartbrand somos especialistas en SEO, y contamos en nuestro equipo con los mejores SEO técnicos, te podemos ayudar a hacer tu sitio web tenga un rendimiento impecable siendo al mismo tiempo 100% SEO friendly. Contacta con nosotros para que analicemos tu caso y te ayudaremos.

Cambiar de http a https: implicaciones para SEO y Analytics
Cambiar de http a https: implicaciones para SEO y Analytics

Seguro que has escuchado en los últimos tiempos que debes cambiar tu sitio de http a https. Es innegable que representa una mejora en la seguridad de las comunicaciones y de todo el entorno online, pero antes de hacerlo debes conocer todas las implicaciones que ese cambio tiene, porque no se trata de una transición suave.

Hace dos años Google publicó de forma oficial que no solo animaba a los sitios web a pasar de http a https sino que además pasaba a considerar la seguridad de los sitios web un factor de posicionamiento. Es decir, que a igualdad de optimización SEO de un sitio A y un sitio B, en el caso de que uno de los dos fuera https y el otro http posicionaría primero el alojado bajo servidor seguro.

Esta inclusión de la seguridad como factor de posicionamiento en el algoritmo de Google puede parecer a simple vista algo muy bueno, obvio, y que todos los sitios web deberían seguir como recomendación rápidamente. Sin embargo, llevar a cabo este cambio tiene implicaciones importantes, que debes conocer antes de tomar la decisión.

http vs https: ¿conviene cambiar?

Como define la Wikipedia, https es un protocolo de aplicación basado en el protocolo http, destinado a la transferencia segura de datos de hipertexto, es decir, es la versión segura de http. Como la navegación en el protocolo https es segura, es muy utilizado desde hace años por entidades bancarias, tiendas online, y todos los servicios en los que es necesario el envío de datos personales o contraseñas. Seguro que estás muy habituado a que cuando vas a identificarte en una tienda online o a realizar el pago, entras en direcciones https en lugar de http.

Lo que está fomentando Google es que todos los sitios web (y no solo la parte transaccional de los sitios o las páginas en las que hay datos privados de por medio) pongan todas sus páginas en https. ¿Cuáles son las implicaciones de esto? Pues básicamente hay dos: pérdida segura de tráfico SEO durante un tiempo, y pérdida de fiabilidad en los datos estadísticos de sitios web que nos enlazan.

Afectación SEO

En primer lugar, no es tan raro como parece cometer errores al pasar un sitio web de versión http a https. Hay que tener en cuenta que para Google las URLS http://tusitioweb.com  y https://tusitioweb.com no son el mismo sitio, son dos sitios distintos, de la misma forma a como la versión sin www es distinta para Google de la versión con www.

http-https

Esto quiere decir que tienes que comunicarle a Google, vía la Search Console, que quieres hacer un traslado de tu sitio con cambios de URL. Esto implica programar redirecciones 301 con tu equipo de IT, cambiar en todos los perfiles sociales de tu negocio los enlaces hacia tu sitio web, contactar con el mayor número posible de socios y partners para que actualicen los enlaces hacia tu sitio en sus webs... No es algo rápido, y es fácil cometer errores que cuesten tráfico SEO.

Pero incluso imaginando que todos los pasos necesarios van como la seda, aún hay más problemas para el tráfico orgánico: de momento la ganancia de tráfico por pasar de http a https es muy escasa, de hecho el propio Google califica esta señal como débil y reconoce que afecta momentáneamente al 1% de las búsquedas; en cambio, hay varios estudios, alguno muy reciente, que prueba que las redirecciones 301, las que aseguran que un cambio de URLs de un mismo sitio se realiza con el mínimo impacto SEO, suponen una pérdida media de tráfico orgánico del 15%, incluso habiendo sido hechas de forma perfecta.  Esa pérdida tarda bastante en recuperarse. Así que de entrada cambiar tu sitio web de http a https te supone una pérdida mínima si todo va bien del 15% de tráfico SEO.

Afectación de los datos de Google Analytics relacionados con los sitios que nos enlazan

¿Has mirado últimamente el tráfico que llega a tu sitio web vía referidores (enlaces externos que no sean redes sociales, ni medios de pago ni tráfico orgánico de buscadores)? ¿Y has notado un aumento del tráfico directo? Casi seguro has notado un descenso importante del tráfico de dominios que te enlazan si miras las cifras año contra año. El motivo es que la cruzada de Google para que todos los sitios web funcionen con https empieza a surtir efecto: cerca del 20% de los sitio web que aparecen en las primeras páginas de resultados de buscadores son ya https. Y resulta que en el pase de una sesión de usuario de un sitio https a un sitio http no se guarda la información del referidor. Y cuando Google Analytics no identifica un referidor, cuenta el tráfico como directo. Por lo que las cifras que están mirando no son muy válidas.

Sí, existe una forma de hacer que la información del referidor pase de un sitio https a un sitio http, es la etiqueta meta referrer; es por eso que sí podemos identificar tráfico de Facebook, Twitter y otras redes sociales relevantes pese a que funcionan con https. Pero el problema está en que esa etiqueta deben ponerlas todos los sitios para poder ser identificados como referidores, y estas redes sociales potentes implantan esta etiqueta en sus sitios por propio interés, quieren que todo el mundo sepa el enorme volumen de tráfico que son capaces de generar, ya que viven fundamentalmente de la publicidad que les contratamos debido a eso. Pero una gran mayoría de sitios web más convencionales no tienen esa etiqueta puesta ni probablemente la vayan a incluir nunca, así que de momento es información valiosa sobre el tráfico que nos envían dominios amigos que perdemos.

Este post no intenta descalificar la tendencia a incluir los sitios web bajo https; al contrario, todos (particulares y negocios) nos beneficiaremos de un entorno más seguro; pero antes de cambiar "porque lo dice Google", ten en cuenta las implicaciones. Si quieres cambiar tu sitio a https y necesitas ayuda para hacerlo con el menor coste para tu tráfico, contacta con nosotros.

+30
expertos digitales
+15
años de experiencia
+200
clientes satisfechos

Todo el WOW de Social Media,en 5 minutos.

Únete a miles de profesionales que ya reciben nuestra newsletter cada mes.
No te quedes fuera.

¡Listo para despegar! 🚀 Gracias por unirte al universo Smartbrand. Prepárate para recibir ideas brillantes, estrategias estelares y las últimas novedades directamente en tu bandeja de entrada.
¡Uy! Algo ha fallado al enviar el formulario.

Qué recibirás

El contenido del mes, 100% Smartbrand.
TOP 3 de tendencias Social Media.
Un recurso gratuito para que sigas creciendo.
Nuestra selección de digital trends.
¡Listo para despegar! 🚀 Gracias por unirte al universo Smartbrand. Prepárate para recibir ideas brillantes, estrategias estelares y las últimas novedades directamente en tu bandeja de entrada.
¡Uy! Algo ha fallado al enviar el formulario.