Tráfico Web
Ideas e inspiración de nuestro equipo sobre Tráfico Web.
El marketing de contenidos permite a las marcas ganar autoridad y relevancia en su sector. Por ello, es un medio idóneo para plantearse conseguir leads con él.
El marketing de contenidos es indispensable para las marcas actuales porque no se centra en la promoción directa de estas, sino en distribuir contenido útil para las personas que pueden estar interesadas en ellas. Esto permite a las empresas exponer y reforzar su voz, su expertise y sus valores.
El marketing de contenidos es, por tanto, una herramienta para hacer más fuertes a las marcas, consiguiendo que se puedan convertir en una autoridad en su sector. En ese sentido, el éxito del marketing de contenidos puede medirse de muchas formas: aumento de visibilidad, aumento de referidores, incremento de ventas, aumento de nuevos usuarios y, por supuesto, generación de leads.
Por ello, es importante definir bien qué tipo o tipos de contenidos crear, en función de cuáles sean los objetivos. No es lo mismo tener como objetivo conseguir menciones y enlaces en sitios web de referencia que conseguir emails de potenciales clientes. Pondremos como ejemplo el objetivo de generar leads.
Contenido enfocado a generar leads
Si nos marcamos este objetivo, las piezas de contenido que creemos deberán tener especificidades para conseguirlo. Y ello nos permitirá centrarnos en las distintas partes del funnel.
Parte superior del funnel
En este punto debemos centrarnos en captar la atención de quienes todavía no nos consideran. Para ello, nuestros artículos publicados en sitios web de terceros de referencia serán de ayuda, al atraer nuevo tráfico. Lo mismo sucede con las menciones de nuestra marca en prensa. Ambos tipos de contenido suponen un refrendo de la autoridad de la marca y, al mismo tiempo, una validación directa o indirecta de esta autoridad por la asociación con el tercero. Perfecto para incrementar la esfera de influencia que acabe atrayendo a los usuarios a siguientes fases del funnel.
Parte central del funnel
Cuando ya hemos capturado una primera atención del cliente potencial, y está en nuestro site, conviene apostar por el contenido onsite y especialmente por el gated content (oferta de contenido tras dar los datos en un formulario). Esta parte central del funnel es la más trabajada habitualmente por las empresas que quieren conseguir leads: efectivamente, cada vez más los usuarios somos conscientes de que nuestros datos tienen valor, y los facilitamos únicamente si lo que obtenemos a cambio también nos aporta valor. Es el concepto de lead magnet: contenido concebido y creado para ofrecer algo valioso a cambio de conseguir un email.
Contenido onsite como posts en blog, casos de estudio o infográficos, siempre tratando temas que son de interés para nuestra audiencia, centrados en resolver temas que les interesen a ellos, no en publicitar los productos y servicios de la marca.
Delimitar qué parte de contenido es utilizada como gancho y qué parte está situada tras el formulario es parte importante del proceso. Con estos contenidos nos situamos como referentes del sector, somos útiles a nuestros potenciales clientes, generamos confianza y conseguimos leads.
Parte inferior del funnel
En este último punto tenemos dos piezas de marketing de contenidos esenciales y específicas: los emails automatizados y segmentados en función del comportamiento, y el email newsletter.
Ambos tipos de email nos deben servir para mantener activos a nuestros leads. A fin de cuentas, conseguir su email es esencial, pero es solo la primera parte de la relación que queremos establecer con ellos.
El marketing de contenidos puede tener diversos objetivos, y no todos los contenidos son adecuados para ello. Uno de los objetivos más frecuentes es conseguir leads, y para conseguir que nuestra estrategia rinda debemos ser conscientes de que es preciso atraer tráfico para maximizar las posibilidades, optimizar el contenido para lograr los emails y alimentar después la relación.
Los sitios web con gran volumen de páginas deben tener en cuenta el presupuesto de rastreo por parte de Google, ya que la capacidad del buscador de indexar contenidos es limitada. Y el objetivo no es únicamente conseguir que indexe solo las páginas relevantes, sino que las que no son relevantes no lleguen a ser rastreadas.
El presupuesto de rastreo es el número de URLs que el robot de Google puede y quiere rastrear de un determinado sitio web, por lo que afecta a la indexación de páginas web. Y ese número de URLs depende de la frecuencia de rastreo y de la demanda de rastreo.
El motivo de que exista el concepto de presupuesto de rastreo y que sea importante es que Google reconoce abiertamente que tiene un número finito de recursos y, por lo tanto, no puede indexar la prácticamente infinita cantidad de contenido que existe en Internet. Por ello, debe optimizar sus recursos y asegurarse de que lo que indexa es realmente relevante. Ese es un primer motivo de peso; el segundo, Google tiene que limitar la indexación en los sitios web porque su robot debe asegurarse de que sus peticiones no ralentizan a los sitios web, perjudicando la experiencia de los usuarios.
La frecuencia de rastreo representa el número de conexiones paralelas y simultáneas que utiliza el robot de Google para rastrear el sitio web, y también el tiempo de espera entre cada obtención de información. La demanda de rastreo depende de la popularidad de la URL y de la inactividad; es decir, que Google rastreará más las URL populares y también aquellas que parezcan inactivas en su índice, algo que no le gusta y por ello vuelve a chequear el contenido para comprobar.
Acciones para optimizar el presupuesto de rastreo
Dadas estas definiciones, ¿qué podemos hacer para optimizar el rastreo de nuestro sitio web y, por tanto, optimizar la indexación de sus páginas? En general, debemos asegurar que el sitio web carga rápido, está limpio, no ofrece spam ni tiene contenido pobre o duplicado. Es más fácil decirlo que llevarlo a cabo, por ejemplo:
- Navegación por facetas: este tipo de navegación por filtros, obligada en sitios grandes con miles de productos, puede suponer un reto importante para el presupuesto de rastreo. Cada combinación de filtros puede ser rastreada e indexada, haciendo que Google se concentre en URLS que no queremos que se indexen. Para evitar problemas de contenido pobre, muchos sitios especifican URLS canónicas y efectivamente, esto evita que se indexen los filtros, pero no que se rastreen. Es decir, que el presupuesto de rastreo puede verse limitado por el hecho de que el robot rastree miles de páginas sin valor, y podamos estar perdiendo la oportunidad de que rastree otras con más valor. Es preferible utilizar combinaciones de "no index" y "no follow" para este tipo de filtros. No existe una solución válida para todos los casos, depende de los filtros y la categorización de productos.
- Velocidad de carga: cuanto más rápido sea un sitio, mayor presupuesto de rastreo. Esta parte está clara: para el robot de Google, si un sitio es rápido significa que los servidores están en buen estado, y puede obtener más contenido con el mismo número de conexiones. En cambio, si hay muchos errores del tipo 5xx o con frecuencia se agota el tiempo de espera de las conexiones, significa lo contrario y el rastreo se ralentiza.
- Páginas href lang y redireccionamientos: como en el caso de las URL canónicas comentadas antes, una buena implementación de redirecciones o de href lang para versiones en idiomas distintos de un mismo contenido son una buena práctica SEO para evitar problemas de ranking, pero son prácticas que pueden afectar negativamente el presupuesto de rastreo, porque, una vez más, no estamos impidiendo su rastreo.
En resumen, es importante tener en cuenta el concepto de presupuesto de rastreo, porque las buenas prácticas SEO habituales para conseguir buenos rankings suelen estar basadas en favorecer la indexación, pero no nos interesa que todas las páginas se rastreen y se indexen.
De todas formas, también es importante indicar que es muchísimo más importante tener en cuenta el presupuesto de rastreo en el caso de sitios web grandes que en el caso de sitios web con contenido limitado. Si tu sitio web tiene unas pocas miles de URL no deberías preocuparte, ya que Google no tendrá problema alguno en indexar todas las páginas. Pero si hablamos de decenas de miles de páginas, ahí sí. Y ese volumen de páginas es propio de muchos sitios web, no se limita a grandes medios como las webs de periódicos, sino que cualquier tienda online mínimamente potente puede alcanzar ese volumen de páginas con facilidad.
Google introduce machine learning en Adsense, aplicando los trabajos que ha realizado en Inteligencia Artificial para mejorar el control del espacio publicitario y su rendimiento económico. Su configuración es muy sencilla y supone un claro beneficio en ahorro de tiempo.
Google ha anunciado recientemente que todos los sitios web que están adscritos a AdSense, el sistema de Google por el cual cualquier sitio web puede convertirse de forma sencilla en un soporte publicitario, pueden activar la nueva funcionalidad llamada Auto Ads, basada en machine learning.
Esta noticia es especialmente significativa, porque se sabe desde hace años que Google está trabajando en Inteligencia Artificial como método para tratar de innovar en sus servicios. Aplicar machine learning o aprendizaje automático a AdSense es el primer paso oficial en uno de sus productos.
Machine learning: un programa que aprende cuanto más funciona
Machine learning es una rama de la Inteligencia Artificial que consiste en la aplicación de un programa que aprende en un proceso. En el caso de los Auto Ads, esto quiere decir que a medida que funcione, este programa cumplirá de forma más eficiente su objetivo.
Y este objetivo, el control del espacio publicitario y conseguir el mejor rendimiento económico posible de ese espacio, tiene como es lógico un gran beneficio para los propietarios de estos soportes; el poder desentenderse del proceso, lo que para los pequeños y medianos soportes es mucha ventaja por el ahorro de tiempo que supone.
Este beneficio en ahorro de tiempo gracias a Auto Ads se produce por 3 motivos:
- Muestra solo anuncios cuando van a funcionar bien y ofrecen una buena experiencia de usuario.
- Es capaz de identificar cualquier espacio para anuncios disponible e insertar un anuncio en él, con lo que la potencialidad de obtener ingresos con Adsense aumenta.
- Es fácil de usar: simplemente se debe añadir una línea de código en la página web una sola vez.
Cómo funciona Auto Ads
Es realmente sencillo configurar el sistema para que funcione: únicamente se deben elegir los formatos publicitarios que se estimen oportunos e insertar el código comentado previamente en la web. Es posible seleccionar unos tipos de anuncios para unas determinadas páginas y no para otras del sitio web.
Auto Ads tiene en cuenta los anuncios elegidos manualmente en el sitio web, por lo que no es necesario eliminarlos para poner en funcionamiento la nueva funcionalidad.
La mejora de AdSense, en interés de los soportes y de Google
Millones de sitios web son soporte publicitario de estos anuncios de Google, aumentando los ingresos del buscador y al mismo tiempo beneficiándose de su liderazgo en los anuncios contextuales para obtener rendimiento económico de sus sitios web. La importancia que da Google a esta legión de sitios web que le ayudan a extender su posición de dominio en el espacio publicitario de Internet queda demostrada con mejoras como los Auto Ads.
De hecho, no solo Google sino los otros 4 Big Five (Microsoft, Amazon Apple y Facebook) están desarrollando proyectos relacionados con machine learning, y es muy probable que en el futuro tengamos más noticias relacionadas con mejoras en este campo.
Antes de ejecutar tareas propias de la optimización de conversiones, es muy recomendable analizar detenidamente el comportamiento del usuario. En este sentido, es necesario conocer las herramientas que permiten hacer seguimiento de los usuarios en webs o apps, con funcionalidades como los mapas de calor (heatmaps) o la grabación de sesiones. Hotjar es una de esas herramientas, especialmente útil para mejorar experiencias de usuario y optimizar conversiones.
Existen muchas formas de mejorar un diseño o experiencia de usuario; una de ellas, no por obvia menos importante, es preguntarles directamente a los usuarios. Pero esta no debe ser la única, pues es aun mejor completar esas respuestas con otras herramientas, como por ejemplo los heatmaps.
En ocasiones, los usuarios no sabemos qué queremos, o no sabemos explicarlo, o mentimos. Los heatmaps no mienten y tienen un valor muy grande para mejorar experiencias de usuario y conversiones, partiendo de pruebas irrefutables: no se basan en lo que los usuarios dicen, sino en lo que los usuarios hacen.
Un heatmap o mapa de calor es una representación de datos, mostrada como mapa o diagrama de los valores de esos datos en forma de colores. Si te gusta el fútbol, habrás visto en numerosas ocasiones cómo utilizan los heatmaps en televisión para mostrar la zona del campo por la que se mueve un futbolista determinado.
El uso de los heatmaps en sitios web o aplicaciones responde al mismo concepto: se trata de un software que tiene como funcionalidad la de grabar sesiones de usuario, y mostrar luego su comportamiento en forma de colores: ¿dónde ha hecho clic? ¿Ha hecho scroll? ¿Ha hecho clic en el CTA que nos interesa? ¿Tal vez el CTA no se ve en mobile above the fold y no ha llegado a verlo? ¿Estamos perdiendo conversiones? Los especialistas en optimización de conversiones pueden extraer mediante los heatmaps conclusiones muy valiosas para su trabajo.
Un software que dispone de heatmaps que ayudan a mejorar las experiencias de usuario es Hotjar. Pero además de heatmaps, dispone de muchas otras funcionalidades que completan la visión sobre lo que los usuarios quieren y lo que les importa durante su navegación.
Funcionalidades de Hotjar para comprender mejor a los usuarios
- Heatmaps y grabación de sesiones: los mapas de calor, como hemos explicado previamente, nos ayudan a saber qué interesa a los usuarios. Pero es muy relevante completar esta información con las grabaciones de sesiones, porque ahí no solo vemos dónde han hecho clic, sino que se pone a prueba la usabilidad del sitio al ver todo el proceso del usuario: sus clics y scroll en orden cronológico, así como su navegación por distintas páginas.
- Funnel de conversión y análisis de formularios: Con esta funcionalidad, propia de herramientas de analítica web, es posible comprobar de un vistazo en qué parte del funnel abandonan los usuarios o en qué punto del formulario desisten de rellenarlo, permitiendo identificar puntos de mejora.
- Preguntar, preguntar, preguntar: a pesar de que hemos comenzado el artículo reconociendo que preguntar a los usuarios puede no ser la mejor pista para la optimización de conversiones, insistimos en que eso es solo si únicamente se lleva a cabo esa acción, sin complementarla con las otras acciones explicadas. Pero preguntar a los usuarios es siempre interesante, relevante y también un síntoma de buena salud de un negocio. Hotjar dispone de diversos tipos de encuestas configurables para lograr el feedback necesario.
Solo queda combinar este feedback con el resto de funcionalidades para disponer del mejor punto de partida para mejorar la experiencia y optimizar las conversiones.
El éxito de un ecommerce tiene mucho que ver con el CRO, porque de la optimización del porcentaje de conversión dependerá una gran parte de las conversiones. Por ello es básico familiarizarse con la operativa habitual para medir y controlar el CRO.
If the only tool you have is a hammer,
you tend to see every problem as a nail.
(Si tu única herramienta es un martillo,
tiendes a ver cada problema como un clavo).
Abraham Maslow
Quería empezar este post citando a Abraham Maslow, psicólogo estadounidense conocido por crear la jerarquía de necesidades de Maslow. Podría ser, como veremos, una buena definición del día a día ante el trabajo de CRO.
Pero antes de nada, vamos a ponernos en situación, CRO es el acrónimo de Conversion Rate Optimization.
Tengo herramientas y debo usarlas
La optimización del porcentaje de conversión es la responsable de que, desde el momento en que entras en la oficina, estreches relación con las herramientas de medición y testing: Google Analytics, Hotjar o ABTasty, entre otras.
También es la culpable de que tus compañeros de trabajo crean que te has vuelto loca cuando te ven preguntándote en voz alta: ¿Qué ha pasado con el funnel? ¿Debo realizar un test A/B o mejor uno multivariante? ¿Sería útil configurar un heatmap? De repente, parece que tu vocabulario tiene más de élfico que de latín, y no dudas que serías capaz de ver la vida con un filtro de Excel mejor que con uno de Instagram.
Repite conmigo: “testar, medir resultados, optimizar, cambiar, volver a medir resultados, volver a testar…”.
Es el nuevo credo en tu día a día y es aquí entonces, en este proceso reiterativo, cuando la frase de Maslow recobra más sentido que nunca. Es una realidad que en el trabajo de CRO se necesitan herramientas que te ayuden a detectar oportunidades y soluciones que, además, puedas abarcar desde otras áreas relacionadas como UX, UI, SEO…
Nada en el marketing online es aislado, todas las áreas acaban formando parte de un mismo engranaje. Al fin y al cabo, necesitamos que todas las piezas rindan bien. Por ejemplo, si a tu estrategia CRO sumas tu estrategia SEO, no solo vas a tener una página orientada a conversión, también conseguirás que lleguen más usuarios que realicen la acción que tú quieres que hagan.
Y al final, ¿para qué sirve todo esto?
Ayudándonos de la optimización de la conversión, conseguimos aplicar medidas de éxito, mejorar los resultados y conocer el ROI (Return On Investment) o retorno de la inversión, el valor económico generado como resultado de la realización de diversas actividades de marketing.
Es importante aclarar que en nuestro trabajo el objetivo no es acabar el día aumentando el número de sesiones, sino consiguiendo que esas sesiones sean de calidad y lleguen a realizar alguna conversión: una venta, un primer contacto, una descarga, etc.
Y no lo olvides…
Del mismo modo que el mejor vendedor del mundo no puede cerrar el 100% de las ventas con un mal producto, la mejor web del mundo no puede convertir el 100% de sus usuarios sin optimización.
El uso de Javascript para una mejor experiencia de usuario, por ejemplo mediante el uso del cada vez más popular framework Angular, conlleva una serie de retos para el SEO. Es necesario asegurar que el contenido se indexa.
La necesidad de mejorar la experiencia de usuario, especialmente en el entorno actual en que la mayoría de sesiones se producen desde móvil, ha llevado a un incremento del uso de tecnologías que permiten agilizar la carga de contenidos y facilitan la personalización. Como siempre que se producen avances en desarrollo, aparecen complicaciones para la optimización en buscadores: históricamente a la hora de pensar en nuevos desarrollos se suele pensar en el usuario, pero los desarrolladores olvidan o desconocen que también los buscadores tienen que poder indexar el contenido.
Si los buscadores no indexan tus contenidos, no estás en sus índices ni puedes aparecer en los resultados de búsqueda: estás torpedeando uno de los canales de captación de tráfico más eficientes y rentables.
Angular es un framework Javascript que se centra en lo que hemos comentado, conseguir la mejor experiencia de usuario, especialmente para móvil. Sin embargo, a pesar de que es mantenido en parte por Google, es muy fácil cometer equivocaciones al desarrollar sitios web en Angular y que no todos los contenidos de tu sitio se indexen. El motivo por el que sucede esto es precisamente por la propia naturaleza de estos desarrollos. Javascript es útil para contenidos dinámicos, pero ¿cuáles de estos contenidos va a indexar el buscador y cuáles no?
Valga el símil de Google como biblioteca y el almacenamiento de documentos impresos para su consulta: al final Google es un robot que tiene que indexar un documento con unos contenidos "fijos", que son los que utilizará para determinar si esa página es o no relevante como resultado para unas determinadas búsquedas. Por ello, como especialistas SEO nos tenemos que asegurar de que la renderización de la página (lo que el navegador y el robot de Google finalmente llegan a "ver") coincide con lo que queremos indexar.
Cómo asegurar el SEO de páginas con Angular o Javascript
Javascript modifica los contenidos que puede cargar una página. Lo más importante desde el punto de vista SEO es asegurarnos de que todo el contenido que queremos que se indexe se carga antes del Load Event, que es un evento que activa el navegador cuando el recurso Javascript y los recursos dependientes han finalizado su carga. Todo lo que ocurre en la página tras este evento no es indexable por los buscadores, y ese es el principal problema la mayor parte de las veces en que las páginas de Javascript no se indexan.
Una forma sencilla de comprobar si los contenidos de tu sitio web se indexan es utilizar la herramienta Fetch as Google (Explorar como Google) de la Search Console. La captura de pantalla que hace Google con esta función es la versión renderizada en el Load Event, utiliza el HTML renderizado y no el HTML inicial que aún no ha ejecutado Javascript, por lo que es una constatación válida de que el contenido se está indexando correctamente.
También se puede utilizar la función de Inspeccionar de los navegadores para extraer el código HTML finalmente renderizado en una página que usa Javascript.
En definitiva, nuestros ojos pueden engañarnos con el Javascript: lo que se acaba cargando en el navegador no es siempre lo que el buscador ha sido capaz de indexar. En un entorno en el que cada vez más sitios web utilizan Javascript como por ejemplo el framework Angular para mejorar la experiencia de usuario es importante entender que a pesar de las mejoras de Google (y no de todos los buscadores, sino fundamentalmente Google) a la hora de procesar e interpretar Javascript, aún tiene limitaciones. Por ello, asegurarse de que la indexación de nuestros contenidos es correcta es el primer paso para un SEO en condiciones. Sin indexación no hay ranking ni tráfico desde buscadores.
En Smartbrand somos especialistas en SEO, y contamos en nuestro equipo con los mejores SEO técnicos, te podemos ayudar a hacer tu sitio web tenga un rendimiento impecable siendo al mismo tiempo 100% SEO friendly. Contacta con nosotros para que analicemos tu caso y te ayudaremos.
El uso de los bloqueadores de anuncios está en aumento, y esto supone un reto tanto para empresas anunciantes como para las compañías que obtienen su rentabilidad a partir de los millones de visitas expuestas a estos anuncios. ¿Cómo reaccionar a esta tendencia?
El uso de extensiones en los navegadores para bloquear anuncios está en aumento. Son sencillas de instalar y proporcionan la experiencia de navegación sin anuncios que muchos usuarios están deseando. Hay extensiones de Adblock Plus, uno de los bloqueadores más populares, para escritorio, smartphone o tablet; y para los navegadores más populares, como Chrome, Firefox, Safari o Explorer. En la página oficial de Adblock Plus aseguran que hay más de 100 millones de dispositivos en el mundo con su extensión instalada, pero los estudios de PageFair, una empresa especializada en el tema del bloqueo de anuncios, elevan la cifra de bloqueadores de anuncios hasta los 600 millones, más de 300 de ellos dispositivos móviles.
La popularización creciente de estos bloqueadores de anuncios supone un reto para los anunciantes y también para los sitios web que basan buena parte de sus ingresos en los miles o millones de visitas que pasan por sus páginas teóricamente expuestas a los anuncios, como es el caso de los medios de comunicación o muchos blogs. La consultora Juniper Research estima que el uso de los bloqueadores supondrá unas pérdidas de ingresos para los anunciantes de 27.000 millones de dólares en ingresos en 2020 (aproximadamente un 10% del total de publicidad online en el mercado).
Cómo funcionan los bloqueadores de anuncios
Los usuarios se instalan una extensión gratuita para su navegador y a partir de ese momento dejan de ver publicidad. El programa se puede configurar para no permitir ningún tipo de publicidad o aceptar únicamente aquella considerada no intrusiva. Como se ve en la imagen siguiente, además del beneficio de evitar publicidad molesta, los bloqueadores de anuncios tienen otras ventajas, como la carga más rápida de las páginas y el ahorro en los datos en caso de estar navegando sin wifi.
Según los datos de algunos programas bloqueadores de anuncios, la mayor parte de usuarios sí quiere ver anuncios, pero siempre que no sean intrusivos y molestos. Ese es el motivo de que en Adblock Plus por defecto exista una whitelist a la que pueden optar todos aquellos anunciantes que se comprometan a utilizar formatos de publicidad no intrusivos.
Qué pueden hacer los anunciantes
Una reacción posible ante el fenómeno creciente de los adblocks es la que han adoptado algunos de los medios con más audiencia, y, por tanto, más perjudicados por este tema. Se trata de detectar los navegadores que tienen instalada esta extensión y solicitarles que incluyan el sitio en su filtro de whitelisting (cada usuario puede personalizar los sitios de los que quiere ver publicidad y los sitios en los que no quiere).
Incluso algunos medios, como Forbes, tienen una página en la que detallan cómo hacerlo y como beneficio por acceder a ello proporcionan una experiencia en el sitio con menos publicidad que la habitual.
El problema es que no parece una solución sostenible en el tiempo. Muchos usuarios no acceden a ello y simplemente abandonan el sitio. Por eso, otra opción es la que hemos mencionado anteriormente: cumplir con los requisitos de formatos y ubicaciones publicitarias de los bloqueadores de anuncios y aparecer por defecto en la whitelist, lo que minimiza mucho el problema.
Lo que está ocurriendo con la publicidad no es distinto a lo que ocurre con el resto de Internet: democratización del acceso a la información, facilidad en las comunicaciones, el poder en manos de los consumidores... De hecho, el perfil de los usuarios que tienen bloqueadores de anuncios está cambiando: de hombres jóvenes y expertos en el uso de tecnologías a un perfil mucho más variado que cada vez incluye más tipos de personas que, sencillamente, quieren una experiencia publicitaria de mayor calidad, con mensajes más relevantes y personalizados según sus gustos, o que directamente no quieren ningún tipo de publicidad.
Si quieres que te ayudemos a hacer publicidad online que cumpla con los estándares y te permita llegar mejor a tu público objetivo en Internet, contacta con nosotros, somos expertos en conseguir rentabilidad para nuestros clientes con publicidad de calidad en cualquier formato.
El cambio más importante de Google Adwords este año ha sido probablemente el cambio de los anuncios estándar por los nuevos anuncios de texto expandido: dos títulos en lugar de uno, con más texto para captar mejor la atención de los clientes y conseguir un mejor CTR.
Se acerca el fin de 2016, y a la hora de valorar los cambios en Google Adwords sin duda uno de los más importantes ha sido la modificación en los anuncios de texto. Los regular ads han cambiado, pasando de anuncios estándar a anuncios de texto expandido, fundamentalmente pensando en el creciente uso del móvil para conectarse a Internet. En la siguiente imagen se observan las diferencias entre ambos tipos de anuncios.
Los cambios son muy apreciables, el más relevante el hecho de que los anunciantes disponen de más texto en los anuncios para captar la atención de los clientes. Según datos de Google, los nuevos anuncios de texto expandido mejoran el CTR hasta en un 20%. De hecho, la apuesta de Google por el nuevo formato es total: a partir de del 31 de enero de 2017, ya no será posible crear o editar anuncios de texto en formato estándar. Todos los anuncios nuevos deberán utilizar el formato de anuncios de texto expandido. Eso sí, los anuncios de texto estándares existentes se seguirán publicando con posterioridad a esa fecha.
Cambios entre anuncios estándar y anuncios de texto expandido
Las principales diferencias entre el formato antiguo y el nuevo son:
- Los anuncios de texto expandidos tienen dos campos de título en vez de uno. Esto significa que el título, el campo en el que más se fija la atención, pasa a tener hasta 30 caracteres por título (para un total de 60), en lugar de 25 caracteres. Es decir, los caracteres para el título aumentan a más del doble. Ambos títulos deben tener un máximo de 30 caracteres, y van separados por un guión.
- Las dos líneas descriptivas de los antiguos regular ads se fusionan en un único campo. En lugar de dos líneas descriptivas de 35 caracteres cada una, los anuncios de texto expandidos tienen un campo descriptivo de 80 caracteres. Esto ofrece más posibilidades para conseguir más efectividad en el mensaje del anuncio.
- El dominio de la URL visible pasa a basarse en el dominio de la URL final. En lugar de tener que introducir la URL visible al crear un anuncio nuevo, Adwords utiliza el dominio de la URL final y permite combinarla con hasta dos campos “Ruta” opcionales nuevos. Estos campos que funcionan como directorios se añaden a la URL visible después del dominio del sitio web. Este formato hace que los anunciantes puedan indicar claramente a los clientes adónde se dirigirán si hacen clic en el anuncio.
- Los anuncios de texto expandido se crean de forma optimizada para dispositivos móviles. Ya no es necesario especificar la preferencia de dispositivo al crear el anuncio: mientras se crea el anuncio de texto expandido, se genera una vista previa tanto para equipos de sobremesa como para dispositivos móviles.
Recomendaciones para la creación de nuevos anuncios
- Aprovechar al máximo los nuevos límites de caracteres. No solo es que se puede comunicar más información, es que al ser más largos, los títulos aumentan el espacio de los anuncios en el que se puede hacer clic.
- No te limites a agregar un segundo título. Que el hecho de tener dos títulos de 30 caracteres cada uno te limite lo menos posible: replantea toda la creatividad del anuncio.
Una versión expandida nueva de un anuncio no tiene por qué funcionar mejor de entrada. Haz pruebas, por ejemplo con entre 3 y 5 anuncios para cada grupo de anuncios. - Por el mismo motivo, deja publicados los anuncios estándar hasta que los nuevos anuncios de texto expandido tengan buen rendimiento.
Si necesitas la ayuda de expertos en Google Adwords para maximizar el ROI de tus campañas, contacta con nosotros y te ayudamos a mejorar tu estrategia de publicidad en Google.
Poder determinar con fiabilidad el valor que aporta nuestra tienda online a las cifras de negocio globales de la compañía es un paso muy importante en las organizaciones, ya que no olvidemos que en el 95% de las ocasiones la transacción se sigue produciendo en tienda física. Google ha puesto en marcha algunas iniciativas para medir ese impacto.
Para los negocios click and mortar es muy importante conocer el comportamiento de sus clientes, saber en qué medida son más online, más offline, o bien si combinan las visitas a tienda online y tiendas físicas en el proceso de decisión de compra. Conocer este comportamiento de la forma más detallada posible es esencial para poder tomar buenas decisiones en la inversión en marketing y en general sobre el negocio.
Sin embargo, más allá de los usuarios que navegan por nuestro sitio web registrados, en el resto de casos resulta complicado hacer el seguimiento. La falta de precisión de las herramientas de analítica web para identificar a un mismo usuario en distintos dispositivos, así como las regulaciones para proteger la privacidad de los usuarios, dificultan dar salida a esta necesidad de las organizaciones.
Si bien existen numerosos estudios que prueban que las ventas online generalmente no canibalizan las ventas offline, sino que los usuarios utilizan las tiendas online para comprar pero también para preparar sus visitas a las tiendas físicas (store visits), no siempre resulta fácil convencer a la alta dirección de la necesidad de invertir en online teniendo en cuenta este factor, en gran medida porque en la mayor parte de sectores más del 80% de las ventas siguen siendo físicas.
Es frecuente que para la inversión en online se piense únicamente en el ROI directo teniendo en cuenta solo los ingresos online, sin advertir que disminuir la inversión en online con toda probabilidad hará descender también las visitas a las tiendas físicas. Todo está conectado para los clientes hoy en día, así que para las organizaciones también: las personas están al mando.
Google, consciente de que contestar la pregunta de cuánto contribuye online a offline puede convencer a muchas organizaciones con establecimientos físicos de aumentar su inversión en online, puso en marcha hace dos años su métrica "Store Visits", visitas a tienda, para lograrlo.
Store visits: ¿cómo funciona?
Google determina una visita a tienda física a partir de la posición del usuario en relación con una tienda física en Google Maps. El buscador lleva a cabo esto con aquellos usuarios que tienen el historial de localización activado en sus smartphones. La precisión de Google llega a establecer que si la visita dura unos pocos segundos no la cuentan, porque puede ser que simplemente el usuario pasaba por delante de la tienda. Lo mismo en el caso de que la visita sea muy larga y a diario, ya que probablemente se trata de los trabajadores de los establecimientos.
Google garantiza el anonimato de los usuarios. No se facilita información personal a los anunciantes, y el dato de visitas a tienda es una extrapolación del dato de las visitas de los usuarios que tienen activada la localización en sus móviles. ¿Cómo de exacta es la información? El buscador afirma que para probar su fiabilidad llevó a cabo más de 5 millones de entrevistas para comprobar si sus datos extrapolados son buenos, y afirman que lo son en un 99%.
¿Qué anunciantes pueden optar a Store Visits?
Para poder tener acceso a esta métrica en Google Adwords es necesario tener tiendas físicas, verificar sus direcciones en Google y tener miles de visitas online. Tener una gran cantidad de visitas es necesario para que los datos reales de usuarios con la localización activa y su extrapolación sean fiables.
Es importante destacar que esta métrica considera el impacto de online en las visitas a tienda física, no las compras. Aunque Google también está trabajando en esto último y ha publicado hace poco un caso práctico de un proyecto con una marca de ropa infantil francesa en el que han podido probar que el 44% de los compradores en tienda física de esta empresa habían visitado la tienda online en algún momento de los 7 días precedentes a la visita, el 9% de hecho la había visitado el mismo día.
Con nuestros expertos en analítica web y en publicidad online te ayudamos a entender el impacto de la tienda online en tus tiendas físicas y en el global de tu negocio, contacta con nosotros.
La búsqueda por voz es el siguiente gran reto de los buscadores. Ya está aquí, y ofrece algunos resultados sorprendentes, que hace algunos años hubieran sido impensables y más propios de la ciencia ficción. Estos avances son preludio del cambio de un cambio de paradigma: de usar un "buscador" a conversar con una inteligencia artificial que "sabe".
Ya sea la pantalla más grande o más pequeña, en los móviles no es cómodo escribir. Sí, los niños y adolescentes van más rápido que los adultos, pero aun así hasta ellos prefieren cada vez más hablarle a su teléfono, en lugar de escribir, para conseguir lo que quieren en cada momento. Un estudio encargado por Google afirmaba, hace ya dos años, que más de la mitad de los adolescentes norteamericanos utiliza cada día en varias ocasiones la búsqueda por voz. Pero es que los adultos no se quedan atrás: un 41% hace lo mismo. Y tanto mayores como jóvenes lo hacen sin problema en modo multitarea, mientras ven la tele o cocinan, por ejemplo.
Entre los objetivos más comunes de la búsqueda por voz destacan hacer llamadas, solicitar indicaciones para ir a los sitios, comprobar la hora o consultar la cartelera. Pero los usos aumentan y mejoran rápidamente.
¿Has probado a utilizar la búsqueda por voz con Google, Siri (Apple) o Cortana (Microsoft)? Cualquiera de estos sistemas está lejos de ser perfecto, pero entre sus funciones hay avances que eran inimaginables hace tan solo unos pocos años. Por ejemplo, veamos algunas de las cosas que puede hacer Google en su aplicación Google Now:
Dos observaciones sobre el vídeo anterior: el usuario está en Las Vegas, pregunta sobre la hora en California, y tras recibir la respuesta de Google pregunta por el tiempo sin especificar localidad; el buscador entiende que se trata de una conversación y que al no haber facilitado otra localización al hablar, el usuario quiere información del tiempo sobre California y facilita la información del tiempo de Los Ángeles. Lo mismo ocurre tras solicitar ver fotos de la actriz Olivia Wilde. Tras ver las fotos el usuario pregunta "¿Cuántos años tiene? ¿En qué peliculas ha actuado? ¿Tiene pareja?" Y el buscador interpreta bien la pregunta y da las respuestas adecuadas.
Esa es la clave de la búsqueda por voz: si al hacer cualquier búsqueda por escrito estamos todos habituados a utilizar palabras clave, al hablar no es así; y no queremos hacerlo, queremos poder conversar para obtener la información que necesitamos. Eso supone una gran mejora tecnológica por parte de los buscadores, para poder ser "conversacionales" con nosotros. No sabemos si en el futuro existirá algo tan increíble ahora mismo como lo que se puede ver en la película "Her", ni si las voces de la Inteligencia Artificial sonarán todas igual de sensuales que la de Scarlett Johansson, que ojalá sí, pero desde luego el camino hacia ahí ha empezado.
Google es consciente del aumento del uso en la búsqueda por voz, y por ello implementa mejoras cada vez que puede, la última a finales del año pasado, cuando consiguió un reconocimiento de voz más preciso. Pero no es ese el motivo fundamental por el que Google funciona mejor que Siri o Cortana, al menos a nuestro juicio. Tal como hemos indicado en otros momentos de este post, Google es el que más se acerca a una conversación "transparente" con el usuario, de tal forma que ni siquiera te parece que estés "buscando", sino que conversas con alguien que "sabe".
En ese sentido, no solo la funcionalidad de voz de Google es buena: lo que la aplicación de Google llamada Google Now hace con las "tarjetas" (notificaciones personalizables) es asombroso: sí, por supuesto información meteorológica, deportiva, pero también información del tráfico hacia casa o el trabajo, seguimiento de pedidos realizados, vuelos reservados, recordatorios de reuniones... Cuando un usuario tiene cuenta en Google (Gmail, calendario. Maps, etc.) esto le proporciona información a Google que este es capaz de procesar para anticiparse a sus necesidades de información. Probar Google Now es sorprendente, porque en muchas ocasiones el buscador realmente se anticipa a tu necesidad de búsqueda.
¿Has probado a realizar búsquedas por voz en Google sobre ti o sobre tu empresa? ¿Obtienes los mismos resultados que con la búsqueda convencional? Si necesitas un equipo de expertos en SEO dispuesto a ayudarte a mejorar la visibilidad de tu negocio en buscadores y siempre atentos a los últimos avances, contacta ahora.
Seguro que has escuchado en los últimos tiempos que debes cambiar tu sitio de http a https. Es innegable que representa una mejora en la seguridad de las comunicaciones y de todo el entorno online, pero antes de hacerlo debes conocer todas las implicaciones que ese cambio tiene, porque no se trata de una transición suave.
Hace dos años Google publicó de forma oficial que no solo animaba a los sitios web a pasar de http a https sino que además pasaba a considerar la seguridad de los sitios web un factor de posicionamiento. Es decir, que a igualdad de optimización SEO de un sitio A y un sitio B, en el caso de que uno de los dos fuera https y el otro http posicionaría primero el alojado bajo servidor seguro.
Esta inclusión de la seguridad como factor de posicionamiento en el algoritmo de Google puede parecer a simple vista algo muy bueno, obvio, y que todos los sitios web deberían seguir como recomendación rápidamente. Sin embargo, llevar a cabo este cambio tiene implicaciones importantes, que debes conocer antes de tomar la decisión.
http vs https: ¿conviene cambiar?
Como define la Wikipedia, https es un protocolo de aplicación basado en el protocolo http, destinado a la transferencia segura de datos de hipertexto, es decir, es la versión segura de http. Como la navegación en el protocolo https es segura, es muy utilizado desde hace años por entidades bancarias, tiendas online, y todos los servicios en los que es necesario el envío de datos personales o contraseñas. Seguro que estás muy habituado a que cuando vas a identificarte en una tienda online o a realizar el pago, entras en direcciones https en lugar de http.
Lo que está fomentando Google es que todos los sitios web (y no solo la parte transaccional de los sitios o las páginas en las que hay datos privados de por medio) pongan todas sus páginas en https. ¿Cuáles son las implicaciones de esto? Pues básicamente hay dos: pérdida segura de tráfico SEO durante un tiempo, y pérdida de fiabilidad en los datos estadísticos de sitios web que nos enlazan.
Afectación SEO
En primer lugar, no es tan raro como parece cometer errores al pasar un sitio web de versión http a https. Hay que tener en cuenta que para Google las URLS http://tusitioweb.com y https://tusitioweb.com no son el mismo sitio, son dos sitios distintos, de la misma forma a como la versión sin www es distinta para Google de la versión con www.
Esto quiere decir que tienes que comunicarle a Google, vía la Search Console, que quieres hacer un traslado de tu sitio con cambios de URL. Esto implica programar redirecciones 301 con tu equipo de IT, cambiar en todos los perfiles sociales de tu negocio los enlaces hacia tu sitio web, contactar con el mayor número posible de socios y partners para que actualicen los enlaces hacia tu sitio en sus webs... No es algo rápido, y es fácil cometer errores que cuesten tráfico SEO.
Pero incluso imaginando que todos los pasos necesarios van como la seda, aún hay más problemas para el tráfico orgánico: de momento la ganancia de tráfico por pasar de http a https es muy escasa, de hecho el propio Google califica esta señal como débil y reconoce que afecta momentáneamente al 1% de las búsquedas; en cambio, hay varios estudios, alguno muy reciente, que prueba que las redirecciones 301, las que aseguran que un cambio de URLs de un mismo sitio se realiza con el mínimo impacto SEO, suponen una pérdida media de tráfico orgánico del 15%, incluso habiendo sido hechas de forma perfecta. Esa pérdida tarda bastante en recuperarse. Así que de entrada cambiar tu sitio web de http a https te supone una pérdida mínima si todo va bien del 15% de tráfico SEO.
Afectación de los datos de Google Analytics relacionados con los sitios que nos enlazan
¿Has mirado últimamente el tráfico que llega a tu sitio web vía referidores (enlaces externos que no sean redes sociales, ni medios de pago ni tráfico orgánico de buscadores)? ¿Y has notado un aumento del tráfico directo? Casi seguro has notado un descenso importante del tráfico de dominios que te enlazan si miras las cifras año contra año. El motivo es que la cruzada de Google para que todos los sitios web funcionen con https empieza a surtir efecto: cerca del 20% de los sitio web que aparecen en las primeras páginas de resultados de buscadores son ya https. Y resulta que en el pase de una sesión de usuario de un sitio https a un sitio http no se guarda la información del referidor. Y cuando Google Analytics no identifica un referidor, cuenta el tráfico como directo. Por lo que las cifras que están mirando no son muy válidas.
Sí, existe una forma de hacer que la información del referidor pase de un sitio https a un sitio http, es la etiqueta meta referrer; es por eso que sí podemos identificar tráfico de Facebook, Twitter y otras redes sociales relevantes pese a que funcionan con https. Pero el problema está en que esa etiqueta deben ponerlas todos los sitios para poder ser identificados como referidores, y estas redes sociales potentes implantan esta etiqueta en sus sitios por propio interés, quieren que todo el mundo sepa el enorme volumen de tráfico que son capaces de generar, ya que viven fundamentalmente de la publicidad que les contratamos debido a eso. Pero una gran mayoría de sitios web más convencionales no tienen esa etiqueta puesta ni probablemente la vayan a incluir nunca, así que de momento es información valiosa sobre el tráfico que nos envían dominios amigos que perdemos.
Este post no intenta descalificar la tendencia a incluir los sitios web bajo https; al contrario, todos (particulares y negocios) nos beneficiaremos de un entorno más seguro; pero antes de cambiar "porque lo dice Google", ten en cuenta las implicaciones. Si quieres cambiar tu sitio a https y necesitas ayuda para hacerlo con el menor coste para tu tráfico, contacta con nosotros.
Todos los datos que necesitas para monitorizar tus resultados SEO los provee Search Console. Sin embargo, con las limitaciones en cuanto a datos sobre palabras clave y enlaces, es habitual que acabemos recurriendo a fuentes externas como SEMrush o Sistrix (para analizar las palabras clave de nuestra web) o a herramientas como Ahrefs para analizar el perfil de enlaces de nuestra web, pero estas herramientas son externas, y los mejores datos, los tiene Google. ¿Quieres descubrir cómo sacarle todo el potencial a Search Console? ¡No te pierdas este caso práctico para ello!
Google Search Console es una de las herramientas de monitorización de los resultados SEO más potentes que tenemos a nuestro alcance, y además, la información que nos proporciona es totalmente gratis, e incluso comparándola con otras herramientas de pago, suele darnos mejores datos sobre links o Keywords Long Tail, ya que al final, el único que distribuye/provee esa información es el propio Google.
A menudo es también una de las herramientas más olvidadas, cuando en realidad desde Search Console (o el antiguo Webmaster Tools) podemos llevar a cabo muchas acciones SEO, u obtener un gran volumen de datos que nos permiten analizar el crecimiento y rendimiento de nuestro sitio web.
Sin embargo, uno de los motivos por los que Google Webmaster Tools es a menudo desechado, es por sus limitaciones en los datos que ofrece, especialmente en los datos sobre enlaces y palabras clave posicionadas; que es aquí donde finalmente un SEO acaba teniendo que contratar otras herramientas complementarias como SEMrush o Ahrefs para poder obtener datos fiables en cuanto a Rankings de palabras clave o enlaces recibidos sobre el dominio.
Limitaciones de datos de Search Console sobre enlaces y palabras clave posicionadas
En cuanto nos proponemos empezar a obtener datos “SEO” en Search Console (refiriéndonos sólo a los datos sobre keywords y enlaces), el principal problema que nos encontramos al tratar de obtener los datos desde Search Console Keyword es que estos datos nos aparecen truncados, y los datos sobre enlaces son sólo una muestra representativa.
El análisis de Búsquedas nos limita los datos que se muestran de dos formas:
Desecha las palabras clave muy minoritarias
Envuelto en la bandera de la privacidad del usuario, Google no muestra las palabras clave “demasiado personalizadas” (es decir, long tails), debido a que contradice la privacidad del usuario. Francamente se me hace difícil de entender cómo búsquedas muy personalizadas pueden contradecir la privacidad del usuario, a menos que éste ponga su propio nombre y apellidos en ella (cosa muy poco habitual diría, salvo para Googlearse a uno mismo).
Muestra máximo 1000 palabras clave
Mientras que en Google Adwords no tenemos límite al uso de palabras clave por las que aparece nuestro anuncio, en Search Console se nos limita a un total de 1000 palabras clave. ¿Muy desigual no?
Mientras, los datos sobre Enlaces a tu sitio, se nos reducen de la siguiente forma:
Datos de enlaces incompletos
Los datos sobre enlaces son simplemente una muestra aleatoria de enlaces; eso quiere decir que si queremos limpiar los enlaces “tóxicos” que estén apuntando hacia nuestro sitio web, no los vamos a encontrar todos ni en Search Console.
Con esto, quiero mostrar que Google no nos va a ofrecer nunca el 100% de la información, por lo que si queremos elaborar un listado por ejemplo del total de palabras clave para las que está posicionada nuestra página web, o el total de enlaces que tenemos… tenemos un problema.
Solución: forzar datos de Search Console para obtener más datos
La solución es muy simple: añadimos nuestro sitio a Search Console múltiples veces, y ya está (¡Sí! Suena estúpido, pero funciona). El principio en el que se basa:
- Cada categorización o vertical de nuestro sitio web, rankeará por un segmento distinto de palabas clave; por ejemplo, las URLs bajo la categorización de /productos-higiene , tenderán a posicionarse por otras palabras clave por las que no posicionará /productos-para-bebe . Sí establecemos una propiedad distinta para cada una de ellos, obtendremos 1000 y 1000 palabras clave posicionadas en cada propiedad, completamente diferentes entre sí y cada una orientada a un segmento de palabras clave distinto.
- Search Console nos ofrece datos sobre links en base a muestra aleatorias, por lo que otra propiedad distinta, nos ofrecerá otra muestra de enlaces distinta.
Comentario personal: Lo cierto es que no me creo que los datos que Google muestre sean “completamente” aleatorios, aunque Google lo afirme. De ser así, en Search Console no aparecerían los top links siempre, algo que siempre me ha pasado, exceptuando aquellos enlaces que son muy nuevos… En general, podríamos decir que siempre aparecen los mejores enlaces, seguidos de luego sí, una muestra representativa de los demás de menor calidad (esto refuerza la necesidad de incrementar el número de enlaces a los que tengamos acceso, en caso de estar llevando acabo una limpieza de enlaces por una penalización).
Podemos generar tantas propiedades como queramos, dependiendo del número de directorios que tenga nuestro sitio web. Lo único que debemos tener en cuenta es que sí tenemos 100 propiedades web en Search Console para un mismo dominio, cuando nos soliciten acceso a “la cuenta de Search Console”, nos vamos a entretener un buen rato para darle todos los accesos.
Pero basta ya de cháchara, veamos un ejemplo para poder ponerlo en práctica:
Poniéndolo en práctica:
Para este ejemplo utilizaremos la propiedad web de Smartbrand. Probablemente empieces por una única propiedad en tu cuenta de Search Console, así que.. ¡es el momento de añadir muchas más! Para ello, empezaremos por el botón “Añadir una propiedad”.
Una vez hagamos clic en “añadir una propiedad”, nos aparecerá un mensaje solicitándonos “qué sitio web” queremos añadir.
Es ahora, dónde en función de la estructura de tu sitio web o de las URLs concretas que quieras monitorizar, añadirás unas u otras “propiedades” a Search Console.
Si no sabes cuáles son los directorios principales de tu web, puedes descubrirlos mediante la siguiente ruta, en Google Analytics:
Comportamiento > Contenido del sitio > Desglose del contenido
Así podrás ver cuáles son los directorios que más tráfico reciben.
En este caso, para Smartbrand, he seleccionado los siguientes:
- Nuestro blog: /blog-marketing/
- Nuestras páginas de servicios de Marketing Online: /agencia -marketing-online/
Normalmente, en la mayoría de casos deberemos crear una propiedad de Search Console para:
- Categorías principales
- Blog
- Páginas de productos estratégicas
- Páginas de captación orgánica estratégicas (landing pages)
Para cada una de estas propiedades se nos solicitará que verifiquemos nuestra propiedad. Si contamos con el Tag Manager activo en nuestro sitio web, todo será mucho más sencillo, ya que el propio Tag Manager verificará las URLs casi automáticamente; en caso contrario, tendremos que escoger entre uno de los métodos de verificación.
Entre estas alternativas, el método de verificación mediante Google Analytics es el más sencillo si la cuenta desde la que estamos verificando la propiedad es la misma que la que gestiona Google Analytics (o tiene los permisos requeridos), con tan sólo un par de clics, ya tendremos la propiedad verificada. Por otra parte, verificarla a través del Proveedor de nombres de dominio considero que es la más engorrosa y lenta. Una vez verificadas las propiedades, ya podremos empezar a jugar con ellas en Search Console.
Pero… ¡espera! Aún no hemos acabado, ¿Te acuerdas de que al principio del artículo comentaba que únicamente tenemos acceso a una muestra aleatoria del total de enlaces sobre nuestra web? Pues para intentar obtener el máximo número de enlaces, hay unas cuantas propiedades más que podemos registrar:
- http://[nuestro-dominio]
- http://www.[tu-dominio]
- https://[tu-dominio]
- https://www.[tu-dominio]
Aunque tengamos puestas las redirecciones desde cada versión de dominio desde siempre; más que ninguna otra URL, merece la pena tener las 4 versiones del dominio en Search Console, aunque sea por si acaso.
Dependiendo de la configuración del dominio, será más o menos complicado verificar estas propiedades, pero siempre merecerá la pena, aunque sólo sea por la alerta de “Añadir todas las versiones idiomáticas” en Search Console.
Una vez ya tengas todas las propiedades web / URLs verificadas, lo más probable es que te encuentres frente a este problema: Google aún no ha procesado tu tráfico.
Google suele tardar aproximadamente hasta una semana en empezar a mostrar datos en las nuevas propiedades que hayamos creado, paciencia… ¡los datos están por llegar!
Sobredosis de datos: los problemas de contar con datos de search console de 50 propiedades para un sitio web
Lo cierto es que como apasionado de la analítica, nunca me parece tener suficientes datos, por lo que eso no representa un problema para mí… y desde luego, si hemos recorrido todo este camino para obtener más datos, probablemente para ti tampoco.
Sin embargo hay cosas que debemos tener en cuenta en esta estrategia de obtención de datos, y es que aunque tengamos muchos nuevos datos listos para analizarse… una parte de los datos; los enlaces, es probable que contengan datos duplicados frente a los de otras propiedades.
Para obtener una mejor visión de los enlaces que recibe nuestro sitio web, lo ideal es exportarlo todo en un archivo Excel y seleccionar la opción de “Eliminar valores duplicados”.
Pese a que la obtención de datos mediante esta técnica es algo más “incómoda”; teniendo en cuenta que deberemos descargar y unificar todos los datos sobre enlaces para obtener una visión de los enlaces sin duplicar que recibe nuestro sitio web, una vez hecho, contaremos con un listado muy tratable de nuestros enlaces; ya sea para argumentar un archivo disallow y tratar de llevar a cabo una despenalización de nuestro sitio web, como para cualquier análisis de los enlaces que recibe nuestro sitio web.
Y por el momento ya está; siguiendo esta sencilla técnica podéis obtener miles de datos sobre palabras claves posicionadas más, y además, mucha más información sobre los enlaces que llegan hasta vuestro sitio web desde la fuente más fiable de todas. Y todo esto, ¡en menos de una hora de trabajo!
Si quieres que te ayudemos a tener una visión 360 de los datos que te proporciona la estrategia de marketing online de tu negocio, contacta con nosotros. En Smartbrand somos un equipo de especialistas en todas las áreas del marketing online que trabajan de forma conjunta en proyectos de clientes siempre orientados a resultados.
Todo el WOW de Social Media,en 5 minutos.
Únete a miles de profesionales que ya reciben nuestra newsletter cada mes.
No te quedes fuera.