Estrategia Seo.

12 fallas técnicas más usuales en una Estrategia Seo.

Cuando se pone en marcha un proyecto web y se implementa una Estrategia Seo, ésta puede estar acompañada de fallas técnicas de optimización.

En las cuales existen muchas maneras de analizar estos tipos de fallas o errores referentes al sitio web.

En el que se utilizan principalmente las distintas herramientas Seo disponibles en el mercado.Que están especializadas para ello.

 Asimismo, se deben de hacer las revisiones manuales para detectar este tipo de problemas.

El optimizar un sitio web, es una tarea constante que requiere de tiempo y paciencia, para ver los resultados deseados.

En este sentido, te mencionaremos las fallas técnicas más usuales en una Estrategia Seo. Veamos:

  • Estructura de URLs

Tanto si tu página web maneja gran cantidad de URLs o pocas, es muy importante de organizar bien su estructura de URLs.

Para su correcto enlazado interno y así poder repartir fuerza de posicionamiento, entre las distintas secciones de tu web.

Una configuración Seo bien elaborada hace que Google pueda rastrear con más facilidad tu web.

Por consiguiente, el presupuesto de rastreo denominado Crawl Budget, mejorará. Por ende, conseguiremos mejores resultados en nuestra Estrategia Seo.

  • URLs amigables

Gran cantidad de sitios web no cuentan con URLs amigables, y es muy importante optimizarlas.

Tanto para el uso de las palabras claves que tengan relación con el contenido de las páginas.

Como para que los visitantes recuerden estas direcciones con facilidad, logrando así mejorar la experiencia de usuario.

  • Robots.txt

El archivo Robots.txt puede tener fallas desde páginas bloqueadas en las cuales se deben de indexar en los motores de búsqueda.

Hasta algunas configuraciones copiadas de otros archivos robots.txt existentes en la red.

Por lo común, este archivo se crea por defecto, si tu sitio web fue creado con cualquier CMS.

Sin embargo, hay que siempre revisar de que no esté bloqueando alguna ruta, en la cual queremos en el bot tenga acceso.

  • Meta robots

Son las etiquetas HTML que se usan para dar indicaciones y directrices a los bots.

En la que le señala al bot que páginas queremos indexar y cuáles no.

Una de las formas más eficaces de desindexar una página es sustituyendo esta etiqueta por “noindex”.

Para esta acción, se puede utilizar las herramientas de Google Search Console.

Incluso, con el mismo archivo robots.txt, aunque con este último no es muy recomendable hacerlo.

A pesar de que sea una fácil acción a implementar, existen muchos proyectos que por alguna modificación cambian este elemento.

Trayendo como consecuencia que se desindexan  de los resultados de búsqueda.

  • Meta etiquetas

No es tanto una falla técnica, pero por ejemplo, el CTR es un factor importante en la cual necesitamos optimizar.

Para que nuestro resultado tenga la mayor cantidad de clics de cara a la competencia.

Una de las fallas que se encuentran con las metas etiquetas, es que muchas suelen estar duplicadas.

O también que no se relacionan con el contenido actual de la página.

Es por ello, que todas las meta etiquetas deben de ser únicas, estar relacionadas sus palabras claves y con su contenido actual.

Por último, te podemos recomendar un llamado a la acción, para incitar al usuario a hacer clic.

  • Canonicals

Es vital que todas nuestras páginas incluyan la etiqueta canonical, para evitar tener posible contenido duplicado en ellas.

La etiqueta canonical, permite definir una URL original, esto se debe de implementar cuando existan dos páginas muy similares.

Ahora bien, cuando estemos claros cual de las dos páginas queremos definir como canonical, Google la tomará en cuenta y se indexará.

  • Sitemaps

Normalmente, todos los creadores de contenidos existentes en el mercado, el sitemaps es generado automáticamente.

Sin embargo, es necesario realizar ajustes para su correcta optimización.

  • Rich Snippets

Los Rich Snippets, están relacionados con las meta etiquetas. Adicionalmente, cuando se utiliza datos estructurados para tus páginas suelen ser muy positivos.

Si queremos por ejemplo, aumentar el CTR y ganar visibilidad en los resultados de Google es recomendable revisar estos factores.

A pesar de que Google está en constante cambio, siempre es necesario conocer los principales marcados que generan más tráfico orgánico y visibilidad.

Entre ellas destacan: las preguntas frecuentes (FAQ Page), fragmentos de reseñas, eventos, entre otros.

  • Hreflang

Si tu página web dispone de diferentes idiomas, es indispensable implementar correctamente la etiqueta hreflang.

Con la finalidad de indicarle a Google que nuestras páginas están disponibles en varias versiones de idiomas.

Por fortuna, existen múltiples herramientas para detectar que el marcado de hreflang esté correcto.

  • HTTP y HTTPS

En la actualidad cualquier página web, debería de contar con el certificado SSL para que las páginas web se marquen como seguras.

Si hemos cambiado la web a HTTPs, seguramente hayamos dejado atrás alguna URL con la versión antigua (HTTP).

En la cual debemos de corregir. Habitualmente, son imágenes o enlaces que se han introducido manualmente, y por tanto siguen en la versión antigua.

Lo cual debemos de encargarnos de actualizarla. Asimismo, revisar el sitemap y que todos los canonicals se encuentren en versión HTTPs.

Todos estos ajustes tienen la finalidad de que el visitante de nuestra página web tenga una buena experiencia de usuario.

  • Enlaces y Disavow

Seguramente, te has encontrado con algún sitio web en que su perfil esté lleno de enlaces spam o de baja calidad.

Es por ello, que debes de hacer una revisión de los enlaces para que no afecten negativamente el Seo de nuestro sitio web.

Para corregirlo puedes utilizar la herramienta Disavow Tool de Google. Que desautorizará los enlaces spam.

  • WPO – Velocidad de carga

Los tiempos de carga cada vez toman mayor importancia para Google. Y es un factor muy importante en cualquier Estrategia Seo.

Existen sitios web que tardan más de 10 segundos en cargar, cuando lo conveniente es que no excedan de 2 segundos.

Las principales causas de esta falla son: mala elección del hosting, imágenes pesadas, compresión de archivos CSS y JS entre otros.

  • Dominio preferido

Aunque parezca elemental, muchas veces nos olvidamos de definir nuestro dominio preferido. Acá te mencionaremos las 4 redirecciones pertinentes:

  1. http://
  2. http://www.
  3. https://
  4. https://www.

De estas opciones, debemos de definir únicamente una de ellas. Siendo la más recomendada el número 3 por su mejor uso a nivel Seo.

Otros tipos de fallas o errores a nivel de Estrategia Seo.

Entre otros tipos de fallas o errores podemos destacar:

  • Errores 404

Si ya tu página no existe, o no se ha hecho una redirección 301. La consecuencia será un error 404 para Google y el visitante.

Para prevenir esta mala experiencia de usuario y de evitarnos de que Google nos penalice, hay que indicar siempre una redirección a éstas páginas.

Haciendo los ajustes a una categoría similar o la misma página principal del sitio.

Dependiendo de qué situación estemos, también podemos aplicar un código 410. A condición de que, esa URL no posea tráfico y no exista más.

  • Responsive Ux

En la actualidad los dispositivos móviles son ahora el principal factor de posicionamiento para Google.

Es decir, que ahora debemos de prestar mucha atención a las versiones de mobile.

Si el sitio web no cuenta con un diseño responsive, no solamente será negativo para Google, sino también para el visitante de la página web.

Trayendo consigo una mala experiencia de usuario y un hándicap frente a la competencia.

  • Parámetros y paginaciones

Los parámetros y paginaciones a veces suelen presentarse problemas en cuando a las URLs, o también en paginaciones de extensos listados.

Que puede convertirse en inconvenientes para estos dos casos. Principalmente, para los ecommerce o comercio electrónico.

Por parte de los parámetros se pueden controlar si se utilizan los CMS actualizados y con URLs amigables.

Sin embargo, a veces es necesario activar determinado parámetro para establecer ciertos filtros de búsqueda.

Igualmente, para evitarnos fallas con los parámetros, lo primero que debemos de hacer es definir la etiqueta canonical en todas nuestras páginas.

Seguidamente, le podemos indicar desde la herramienta de Google e incluso en el archivo robots.txt, que parámetros deseamos bloquear.

A propósito con las paginaciones, hay distintas estrategias para saber cuándo usar en cada tipo de paginación.

Aun cuando, las paginaciones no ayudan al Seo, siguen siendo necesarias para Google y el visitante tenga acceso a todas las páginas del proyecto.

Conclusión.

Para finalizar, podemos enfatizar que no existe ningún proyecto o diseño web que no tenga mejora u optimización.

Es por ese motivo, que es necesario de tener un control de forma regular con todos estos factores si queremos posicionarnos como Seo.

Si desean saber más acerca de las fallas técnicas más usuales en una Estrategia Seo les invitamos a leer aquí. Si te ha gustado nuestro artículo puedes leer más aquí.

Comparte:

No te las pierdas

Ultimas publicaciones