Es más importante hasta dónde se llega que con qué se llega. Google impone unas reglas de juego, y las empresas se adaptan tratando de lograr el mejor SEO (Search Engine Optimization) posible. Aunque no siempre es sencillo.

La herramienta del gigante tecnológico acapara actualmente más del 95% de las búsquedas mundiales, y por eso no existen alternativas viables a la optimización.

No importa que sea más o menos justa. Cada hora de producen 1,4 billones de búsquedas, y de estas, un 70% de los clicks se producen en resultados orgánicos. Es decir, que casi 8 de cada 10 usuarios no llegan ni siquiera a ver la segunda entrada.

A fin de reducir el índice de fracaso, hoy en MÁSMÓVIL Negocios ponemos el foco sobre los principales errores que suelen cometer las empresas a la hora de configurar su SEO.

Errores habituales SEO

También te puede interesar: "Las herramientas de SEO indispensables para tu negocio"

 

1 – No contar con una estrategia de SEO

Parece obvio, pero todavía hay miles de empresas que crean webs corporativas sin tener apenas conocimientos sobre SEO. Introducirse en la red sin una buena planificación puede conllevar inversiones perdidas, objetivos incumplidos, y hasta daños en la imagen y la reputación de la marca.

Por eso es importante, al menos, conocer el abecedario más básico de la profesión, y entender cómo funcionan las reglas que sigue Google.

Sin estrategia no habrá Inbound Marketing posible, ni se producirán milagros inesperados de alcance. En el SEO no existe la suerte, pues todo se rige por cálculos y parámetros.

Se entiende que muchas empresas no cuentan ni con el tiempo ni con los recursos necesarios para afrontar este reto debidamente. Pero no hay que ignorar la posibilidad de contratar a una agencia especializada, o la de formar a los empleados en la materia.

 

2 – Descuidar el sitemap y la experiencia de usuario

Lograr una navegación fluida por la web no solo se hace pensando en agradar al usuario. Google rastrea todas las urls de la red con unos bots, y posteriormente los incluye en una lista ficticia.

Cuando el link es validado, se indexa. Es decir, se selecciona y aparece como nuevo en el buscador. El sitemap es un archivo XML en el que aparecerán enumeradas todas las urls de tu página.

Es un documento que incluye información relativa al tiempo de actualización, la fecha de mantenimiento, y la jerarquía de importancia entre links. Cuando el sitemap está bien administrado, los bots trabajan con más facilidad, y por tanto indexan con más probabilidad.

Para evitar descuidar este aspecto, es importante actualizar el sitemap cada vez que añades una página nueva al dominio, alojarlo en el directorio raíz y no el servidor, y evitar que incluya más de 50.000 urls o pese más de 10 MB sin comprimir.

 

3 – Ignorar plugins y herramientas de CMS

Casi todos los Content Manager Systems (CMS) cuentan con interfaces simplificadas y tutoriales muy detallados. En muchas ocasiones este administrador además es elegido no según necesidades, sino presupuesto.

Aproximarse a CMS sin ningún conocimiento puede conducir a hacer un uso superficial del mismo. Esto es, ignorar los plugins descargables especializados en SEO, y utilizar plantillas estandarizadas no optimizadas.

Es comprensible que las empresas opten más por diseños propios que por configuraciones básicas, pero en ese caso resulta crucial asegurarse de que está preparado para funcionar frente al algoritmo de Google.

 

4 – Subestimar el termómetro SEO de CMS

Está presente tanto en Wordpress como en CMS y en el resto de administradores. Los desarrolladores disponen de un Análisis SEO que evalúa la calidad de cada entrada en base a una serie de parámetros.

Etiquetas, enlaces rotos, uso incorrecto de los títulos. Los errores se reparten en frentes muy disantos que son fácilmente reparables. De acuerdo con un estudio de Semrush, el 45% de las empresas no utilizan etiquetas ALT en sus imágenes destacadas, y el 10% directamente utiliza imágenes con urls rotas.

El 8% ignora las tags de título en sus pestañas, y el 35% incurre en etiquetas duplicadas. Hablando de los títulos, el 4% de las webs posee demasiado cortos y el 15% demasiado largos.

¿Qué sucede con la metadescripción? 3 de cada 10 webs las duplica perjudicando el posicionamiento y el 25% directamente ignora su uso. Para las empresas menos fluidas en estos conceptos el consejo es tan sencillo como: prestar atención. La mayoría de los fallos se cometen por descuidos.

 

5 – Practicar Keword Stuffing

Aunque puede parecer manipulable en un primer momento, el algoritmo de Google no es fácil de engañar. Este impone graves penalizaciones cuando detecta algún tipo de práctica Black Hat SEO.

Una de las más habituales es el Keword Stuffing; el abuso de palabras clave creyendo que así se refuerza el posicionamiento de la página. Lo que se concentra en las siguientes tendencias:

  • Repetición innecesaria de palabras o frases.
  • Añadir palabras que están fuera de contexto.
  • Insertar bloques de la misma palabra clave.
  • Utilizar de palabras clave que no son relevantes para el tema de la página.

El manejo de las keywords siempre ha de ser natural; integrarse en el texto con sentido y de forma comedida. Pensando en eso se debe conocer el concepto de "densidad keyword".

Keyword Density = Número de palabras totales en el texto / Número de keywords en el texto

No existe un porcentaje mágico, pero los expertos sugieren que la densidad siempre se mantenga cercana al 2%.

 

6 – Practicar el Cloaking

A través de distintas técnicas es posible crear una disonancia entre lo que detecta el bot y lo que realmente contiene la página. Es a lo que se conoce como Cloaking.

Con esta técnica se genera una suerte de pantalla que esconde las prácticas poco éticas del administrador frente al ojo de Google. ¿Cómo se hace?

  • Configurando el servidor para que muestre contenidos distintos dependiendo del tipo de navegador.
  • Utilizando redireccionamientos con JavaScript: antiguamente los buscadores no eran capaces de ejecutar este lenguaje.
  • Mostrando contenidos diferentes en distintas direcciones IP: es decir, en cada ordenador.

Con el paso de los años, Google ha ido perfeccionando sus bots para que premien la naturalidad y el valor real del contenido por encima de la optimización artificial. Por eso el Cloaking cada vez es menos efectivo.

Además, si el buscador detecta la infracción, la web puede ser penalizada de forma grave, o incluso hasta quedar eliminada por completo.

 

7 – Recurrir al Spinning

La estrategia de muchas webs pasa por inundar el buscador de páginas, para aumentar la probabilidad de indexación. Sin embargo, esto requiere de mucha mano de obra y capital.

Es por ello que no pocas empresas acuden al Spinning; la duplicación de contenido a través del maquillaje. Esto es, cambiar pequeños detalles para publicar más de una vez lo mismo, y que parezca diferente.

Existen softwares especializados que se encargan de alterar los contenidos para hacerlos invisibles al detector del bot de Google. No obstante, el gigante tecnológico tiene trucos para esquivar el engaño.

Los bots no leen cada texto palabra por palabra, sino que se centran en palabras clave e ignoran las palabras vacías o stop words. Así, por muy distinto que sea un contenido de otro, el rastreador es capaz de emparejarlos.

 

 

En MÁSMÓVIL Negocios velamos por las opciones más eficientes para tu proyecto. Por ello te ofrecemos la mejor conexión y ofertas de fibra y móvil del mercado. Consulta más detalles en nuestra web o llámanos gratis al 1495 para conocerlas.

Y tú, ¿ya cuentas con un SEO sano y eficaz?