📧 director@victorgbarco.com
🥇 Especialistas en Auditorías SEO y CRO para Aumentar tus Ventas

Auditoria SEO paso a paso: Checklist

1. Análisis de la Caché

Esta es la información que nos da un análisis de Caché

1.1. Último cacheado de nuestra web

¿Cuándo se realizó el último cacheado de la web? Es decir, ¿cuándo fue la última vez que pasó la araña de Google por nuestra página web?

Día del Análisis: 10 abril 2019

Último cacheado: 31 Mar 2019

Últimos cacheados de nuestra competencia:

  1. Denatural: 1 Abr 2019
  2. Mifarma: 30 Mar 2019
  3. HerbalCornerShop: 31 Mar 2019
  4. Mom-Natura: 31 Mar 2019
  5. Herbolario Online: 2 Abr 2019

Nuestro Status: OK

Textos Iniciales de la web

En este apartado vamos a Analizar qué es lo primero que ve la araña de Google y de otros buscadores de nuestra web, lo vamos a comparar con nuestra competencia y, en base a esto, decidiremos realizar cambios en nuestra web.

Información que aparece en la web, previa al menú:

Tu Boutique Natural

De Natural

Mifarma

Herbalcornershop

Mon-Natura

El Herbolario Online

Conclusiones

Podemos sacar las siguientes conclusiones tras este análisis:

  1. La información en esta página web no está bien organizada. Los términos más importantes por los que quiere posicionar la Home: “Herbolario”, “Herbolario Online” o “Herboristería”, no aparecen en lo más alto de la web, por lo que las arañas de Google tardan mucho en saber de qué va nuestra web.
  2. Aparecen links y referencias muy ambiguas que no deberían estar ahí. Además, esos links deberían comprobarse que son todos NOFOLLOW para que no se diluya la Autoridad de la página web y, además, esas páginas deberían estar bloqueados por Robots.txt. Estos links y páginas son:
  • Lista de deseos
    • Comparar productos
    • Contacto
    • Iniciar sesión
    • Tu Boutique Natural
    • Carro de la compra
    • 0,00 €
    • Confirmar
    • Pasar por caja
  • Así mismo, el texto que existe en el análisis de la cache: que hay entre medias de esos links debería limpiarse.
  • Vemos que hay una página de la competencia que tiene mucho texto SEO de lo primero, habiendo modificado esto a medida. Hemos analizado su histórico y sus backlinks mediante Semrush y da la impresión de que han posicionado muy rápido siendo los que menos Backlinks y los que menos DA y PA tienen entre todos los resultados de Búsqueda TOP 5 por la palabra: “Herbolario Online”. Por lo que recomendamos una optimización similar.
  • Analizando los resultados de cache:dominio.com más en profundidad y que no aparece en las capturas de pantalla, vemos lo siguiente:
  • Las webs de la competencia son mucho mayores en cuanto a categorías, productos, etc., que la web del estudio. Por ende, recomendamos crear una estrategia de blog mucho más fuerte si no se puede aumentar la cantidad de productos y de categorías.
    • Adicionalmente, debemos poner más texto en la parte superior como Herbalcornershop y, sobre todo, que aparezcan las principales palabras clave, lo más arriba posible.
    • La web del estudio es la única que tiene un scroll en el análisis del cacheado. No sabemos cómo afectará esto al rastreo. ¿Es oportuno dejarlo así, eliminarlo?

2. Análisis de Logs

En este punto vamos a analizar los logs mediante Screaming Frog Log Analyzer. Vamos a ver qué Hits recibe nuestra web de Google Bots para PC y móvil y qué URLs son las que mejor están siendo rastreadas.

En este punto habría que medir los siguientes puntos:

  • Fecha de la interacción
  • URLs
  • Código de Estado
    • 1xxx
    • 2xxx
    • 3xxx
    • 4xxx
    • 5xxx
  • User Agent (Google Bots)
  • Referers
  • URLs Inconsistentes

Adicionalmente, para webs más grandes, es interesante medir y cruzar la siguiente información:

  • Cuantas urls reciben tráfico en Analytics.
  • Cuantas urls reciben clics en Search Console.
  • Y si esas urls son las que más hits reciben.

Conclusiones de logs

De momento, hay muy poca información de los logs. Lo que vemos es que los bots de Google, pasan con muy poca frecuencia. Esta frecuencia es:

  • 28 febrero 2019
  • 26 marzo 2019

De esta información sacamos las conclusiones siguientes:

Los robots pasan por la Home, pero no parece que pasen por las diferentes categorías o productos, por lo que puede haber un problema de linkado interno que hay que analizar más profundamente.

Tampoco pasan por los contenidos del blog y, más en concreto, con el súper post de: “Cuál es el mejor colágeno hidrolizado del mercado”. Por lo que deberíamos linkar este artículo en la Home y lo más arriba posible.

Vemos reflejado sólo un error 400 para la URL de mywhistlist (Lista de Deseos).

Respecto a User Agents (Bots), recibimos pocos Hits de todos los buscadores en General.

No vemos más errores en los códigos de estado y tampoco encontramos URLs inconsistentes.

¿Cómo podemos hacer que Google visite nuestra web más constantemente?

  1. Paciencia. La web es muy nueva.
  2. Generando contenido nuevo cada semana y avisando a Google de que hemos creado o modificado el contenido de alguna URL. Este aviso se puede realizar manualmente a través de Google Search Console con la Herramienta de Inspección de URLs.

3. Análisis de Técnico de SEO On Page

Para este análisis se utiliza la Herramienta de pago: NetPeak Spider. Y estos son los principales puntos que vamos a analizar:

  • Internal PageRank
  • Código de Estado
  • Respose Time
  • Internal links
  • Crawl Deep (Niveles de Clics Diferente a Niveles de Directorios)
  • PageRank DeadEnd
  • PageRank Redirect
  • Redirect Chain
  • Duplicated Canonical URL
  • Max Redirections
  • Redirect Blocked by Robots.txt
  • Canonical Chain

Adicionalmente a esta información, debemos de solucionar cualquier otro problema Grave (en rojo) o Advertencia (Amarillo-Naranja) que arroje la herramienta.

Conclusiones a través del Dashboard

Estos son los errores que hemos encontrado:

Títulos Duplicados

https://tuboutiquenatural.com/blog
https://tuboutiquenatural.com/blog/tag/colageno

Aquí vemos que se trata del Blog y de la URL para la etiqueta del blog: “Colágeno”. Al pasar el comando “site:” a la URL de la tag, vemos que está indexada, por lo que hay que desindexarla.

Esto nos podría traer más problemas en el futuro por lo que, no sólo hay que desindexar esa URL sino la directriz /blog/tag/ en el robots.txt para que esto no ocurra cuando se creen automáticamente otras tag para otro tipo de Post.

Descripciones Duplicadas

Este problema se da entre las mismas URLs por lo que con la medida anterior, se solucionará.

H1 Duplicadas

Las etiquetas H1 son vitales para indicar a Google y a otros buscadores, qué es lo que más quieres destacar tú de cada página. La duplicidad de H1 puede llevar a problemas como, por ejemplo, la canibalización, y no deja claro a los robots qué deben de tener en cuenta o a qué URL hay que darle prioridad.

Así que tenemos que analizar esto bien para ver si puede estar habiendo un problema de Canibalización u otro tipo de problema.

En este caso, las URLs con H1 Duplicadas son:

https://tuboutiquenatural.com/mas-vendido
https://tuboutiquenatural.com/mas-vendido?p=2
https://tuboutiquenatural.com/mas-vendido?p=3
https://tuboutiquenatural.com/mas-vendido?p=4

Como podemos ver, el problema reside en que se está indexando tanto la página “Más vendido” como su paginación.

En este caso, esta URL no es importante para términos de SEO. Es decir, esta URL no va a atraer tráfico a la web, por lo que hay que desindexarla.

No obstante, se puede dejar publicada porque puede mejorar la Experiencia de Usuario y mejorar el tiempo medio de estancia en la página, ya que los internautas tienden a echar un ojo a estas secciones para ver qué productos son los más consumidos.

Descripciones Vacías

Podemos ver que hay 77 URLs sin Meta Descripciones, lo que indica que hay que mejorar bastante todavía el SEO On Page dado que la web, tiene indexadas, aproximadamente 170 URLs.

Esto quiere decir que, algo más del 40% de las URLs no están bien optimizadas en cuanto al SEO On Page.

Una conclusión que podemos extraer extrapolando esta información en base a nuestra experiencia es que habría que hacer un análisis completo del SEO On Page y hacer una programación mensual para ir resolviendo este problema.

Esto preferimos y recomendamos hacerlo mejor con la herramienta Screaming Frog. Aquí podéis ver vídeo tutoriales de cómo usar esta herramienta.

Analizando todas esas URLs podemos ver lo siguiente:

  1. Principalmente son productos. Esto no es una prioridad para el proyecto ya que, antes, habría que optimizar el SEO On Page de la Home, de las Categorías y analizar en qué productos SÍ es interesante atacar a nivel SEO. Que seguramente no serán todos.
  2. Vemos URLs con el directorio: /inicio/
  3. Vemos una URL con el directorio: /comparativa-productos
  4. Vemos URLs con el directorio: /mas-vendidos

Lo que nos lleva a pensar que deberíamos analizar muy bien lo que se está indexando y lo que no, mediante el comando: “site:dominio.com” y Search Console, para desindexar todas aquellas URLs que no sean de interés.

Redirecciones Bloqueadas por Robots.txt

Este error hace referencia a que hay URLs que tienen redirecciones a páginas bloqueadas por Robots. Esto puede ser un problema porque estaríamos mandando PA a unas páginas que están bloqueadas y que, por lo tanto, no tienen interés SEO para nosotros.

Así que, ¿por qué mandar Autoridad SEO a páginas que no nos interesan en SEO?

Al analizar este error encontramos que ocurre con 3 URLs:

https://tuboutiquenatural.com/mi-cuenta
https://tuboutiquenatural.com/module/blockwishlist/mywishlist
https://tuboutiquenatural.com/inicio-sesion

Analizando la página podemos ver que:

  1. La Home tiene un link que lleva a la página de /mi-cuenta. Pero esta está redirigida a la URL de /pedido-rapido. Solución: En la Home, habría que eliminar el link de /mi-cuenta, habría que bloquearlo por Robots y, en su lugar, poner el link de /pedido-rapido. Adicionalmente, a ese link habría que ponerle un NOFOLLOW y asegurarse de que /pedido-rapido está bloqueada por Robots al no tener importancia para SEO.
  2. Ocurre lo mismo exactamente para la URL /module/ blockwishlist/mywishlist
  3. La URL /inicio-sesion está en medio de la redirección de /mi-cuenta a /pedido-rapido. De esta forma se está generando una Cadena de Redirecciones que también hay que solucionar.

PageRank: Dead End | PageRank: Redirect | Cadenas de Redirecciones

Este dato hace relación a que hay páginas que reciben links internos, y por lo tanto autoridad, y que no tienen ningún link interno para mandar esa autoridad recibida a otras partes de la web.

Lo ideal es que el traspaso de autoridad no se quede estancado en ningún punto y que siempre esté circulando por la web, volviendo a la Home, a otra Categoría, a un artículo que queramos potenciar y que guarde relación con lo que se habla en esa URL, etc.

En este caso encontramos dos páginas con PageRank Dead End:

https://tuboutiquenatural.com/content/6-cupon-10-euros-descuento
https://tuboutiquenatural.com/pedido-rapido?rc=1&back=https://tuboutiquenatural.com/module/blockwishlist/mywishlist

La primera de ellas es una página donde se te lleva a un formulario de registro para conseguir un código de descuento. En este caso, lo ideal es que ese link sea NOFOLLOW y que esa página no esté indexada. No es una página para SEO, pero si es una URL útil para mejorar la captación de Leads y, por lo tanto, para mejorar la venta y los ingresos de la web.

En el caso de que se dejara el enlace como Follow, recomendaríamos poner un enlace de vuelta a la Home, para que no se desaproveche esa autoridad cedida desde la Home. Pero lo ideal es el primer punto.

En el segundo caso, la URL representa la página de compra, por lo que debe ser una página bloqueada en los Robots y con un NoFollow.

Otros Problemas Detectados sobre los que hay que actuar

  • 196 páginas tienen un tiempo de respuesta del servidor muy largo.
  • Faltan 21 etiquetas H1 – Optimización SEO On Page con Screaming Frog.
  • 40 imágenes sin etiquetas ALT – Optimización SEO On Page con Screaming Frog.
  • 41 imágenes con tamaño muy grande: – Optimización SEO On Page con Screaming Frog.

Conclusiones a través del PDF NetPeak

Vemos los siguientes problemas:

  • Hay 196 páginas con problemas de velocidad de carga. Incluye URLs de fotos.
  • Vemos que hay un % muy alto de páginas de imágenes vs páginas de texto/HTML
  • Hay demasiadas páginas con Disallow en los Robots. Páginas denominadas: “Non-compliant”. Esto no supone un problema ahora, pero pueden suponer un problema de Desperdicio de Crawl Budget en el futuro.

4. Estado de Indexación

4.1. ¿Qué es el estado de indexación?

El estado de indexación hace referencia a aquellas URLs de nuestro sitio web que Google está indexando. Es decir, aquellas URLs que le estamos diciendo a los robots que queremos que tenga en cuenta y que muestre en los resultados de búsqueda.

Un error muy frecuente es pensar que cuantas más URLs tengamos indexadas mejor. Pero NO es así. Lo realmente importante es que debemos darle a Google únicamente las URLs que tengan importancia para SEO, es decir, aquellas que nos pueden traer visitantes de calidad a nuestra web.

Además, para sitios muy grandes, cuanto más limpio esté este apartado, mejor. Puesto que facilitaremos a Google a entender y a moverse por las URLs de nuestra web de mejor manera. Y esto Google lo recompensará.

Ejemplo de URLs que no deberían de indexarse:

  • Contacto
  • Políticas de privacidad, términos y condiciones y avisos legales.
  • Páginas de carrito.
  • Directorios sin valor SEO, cómo son los módulos, imágenes, etc.
  • Páginas de Servicio, si ese servicio no tiene búsquedas.
  • Páginas de Producto cuyo producto no tenga búsquedas en Google.
  • Páginas con errores 4xx.
  • Páginas NO optimizadas para SEO.
  • Etc.

4.2.  La teoría sobre la Indexación

El proceso de indexación consiste en que el robot de Google encuentre y analice tu página. Ha de leer tu contenido, clasificarlo e incluirlo en su índice. Una vez que ha hecho todo esto, cualquiera puede encontrar tu sitio web a través de una búsqueda.

Pero hay que tener en cuenta que NO todas las URLs de tu página web han de indexarse. En muchas ocasiones se piensa que más cantidad implica más calidad, pero no es así. Para saber qué si debo indexar y qué no debo indexar has de ponerte en la piel de un internauta que está buscando en Google.

Dicho internauta puede que busque información técnica, de entretenimiento, de conocimiento, quizás quiera comprar servicios o productos, buscar imágenes, etc. En base a esto, el principal común denominador es que el internauta busca información, a nivel general, que sea valiosa para cubrir sus necesidades. Y no todas las URLs de tu página web, dan valor al usuario de la red.

Por ende, ya sea construyendo tu nueva web o analizando la web que ya tienes publicada, has de encontrar aquellas URLs con un verdadero valor para el usuario y para Google, para que así, puedas indexar tu mejor contenido y de una forma ordenada.

Adicionalmente, con el paso del tiempo, debido a múltiples motivos puede que se quede indexado contenido que ya no sea de utilidad para un usuario (productos que ya no vendes, una entrada a un blog muy obsoleta, etc.), por ello es recomendable realizar con cierta frecuenta este paso número 1 para asegurarnos de que Google está mostrando aquello que queremos y debemos mostrar.

Tras esta breve introducción comentaros que hay bastantes métodos para ver qué páginas están indexadas y cuáles no, pero en esta Guía nos vamos a centrar en las dos que consideramos que tienen más valor y veracidad: usar Google Search Console y utilizar tu propia experiencia y sabiduría mediante los comandos de Google.

Usar Google Search Console

Análisis de la indexación de una web mediante comandos de Google

Antes de comenzar con el análisis, para aquellos que no conozcáis qué son los comandos de Google, os vamos a presentar algunos de los más usados para este tipo de labor. Comando “site:”, comando “link:” y comando “linkdomain:”

I. El comando site:

Este comando permite restingir una búsqueda en un portal determinado, o incluso una parte específica de un sitio determinado. De este modo, la petición [site:rentabilizar-web.com ganar dinero] en Google presenta las páginas pertinentes para las palabras clave ganar dinero, del portal rentabilizar-web.com

– Para restringir la búsqueda a una sección del portal, solo hace falta indicarlo en la petición, ya se trate de un sub-dominio o de un simple repertorio.

[site:flesko.co.uk] permite listar las páginas indexadas en la totalidad del portal flesko.co.uk, comprendidos todos los sub-dominios.

[site:property.flesko.co.uk] permite listar las páginas indexadas en el sub-dominio porperty del portal flesco.co.uk

[site: www.flesko.co.uk/directory/sport_recreation/] permita listar las páginas indexadas en el repertorio /sport_recreation/ del portal flesko.co.uk

Esta funcionalidad es de gran ayuda para analizar el posicionamiento de una web a través de Google.

II. El comando link:

Este comando registra los backlinks de una página, es decir, da una lista de las páginas que hacen un enlace hacia una página de otro nombre de dominio.

Al contrario que el comando site, el cual funciona a nivel de un sitio entero, el comando link: lo hace para una página concreta. De este modo, [link:URL] reenvía solo las páginas que tengan un enlace hacia la página URL.

Dado que el trabajo de posicionamiento se realiza página a página, en teoría se debería de usar el comando link para cada página, para la que se quiera optimizar el posicionamiento.

En Google, el comando link: ha sido limitado para favorecer el uso de las Herramientas para Webmaster de Google. No obstante, resaltan ciertos defectos:

  • No es para nada exhaustivo, ya que a veces Google solo plasma 1% de los backlinks reales.
  • No está actualizado diariamente, solo una vez al mes, incluso a veces ni eso.
  • Este comando no puede combinarse con palabras clave.

Para saber los backlinks de tus vecinos, es aconsejable el uso del comando link: en Yahoo, ya que es menos limitado. Es más exhaustivo, las actualizaciones son más frecuentes y se puede combinar con palabras clave. Como ves, también puedes utilizar Yahoo para trabajar tu posicionamiento en Google.

III. El comando linkdomain:

Al contrario que para el comando [link:URL], que solo da una lista de  las páginas que precisamente tengan un enlace hacia la URL, existe el comando linkdomain: (disponible en Yahoo, MSN, pero no con Google). Este lista las páginas que tengan unenlace hacia cualquiera de las páginas de un portal determinado.

Por ello, no se deberían de confundir las dos peticiones siguientes:

[link:www.rentabilizar-web.com] lista únicamente los backlinks de la página principal del portal Rentabilizar-Web.

[linkdomain:www. rentabilizar-web.com] lista los backlinks de la página principal, así como de todas las páginas en Internet del portal Rentabilizar-Web.

Si comparáramos los resultados obtenidos con los comandos link: & linkdomain:, se pueden evaluar los enlaces que «apunten» a páginas interiores (o enlaces profundos) .

En definitiva, estos tres comandos permiten una multitud de pequeños análisis concretos. Análisis muy útiles a la hora de trabajar el posicionamiento SEO, recordando que cada página del portal debe de tener un contenido específico y buenos backlinks.

Análisis de los resultados del comando “SITE:“ e identificar qué hay indexado y qué no debería estar indexado.

Análisis:

Este es un listado del tipo de páginas que pueden estar mal indexadas y que, por ende, deberían ser desindexadas de inmediato.

¿Por qué hay que desindexar determinadas páginas? Porque no tienen valor, afectan la Crawl Budget, porque tienen contenido duplicado, porque disminuyen el tiempo medio de visita en la página, porque aumentan la tasa de rebote, etc.

Muchas veces se indexan algunas o, cientos de páginas que no nos interesa indexar. Este es un listado de muchas de ellas:

  • Home repetida con el formato “.inicio”
  • Página de devoluciones: Esta información es importante para los usuarios que ya estén dentro de tu web pero nadie busca en un primer momento eso.
  • Página de gracias
  • Página de garantías: Esta información es importante para el usuario que está dentro de la web, pero nadie en google sin comprarte va a buscar información sobre la garatía de tu producto. ¿Alguien busca: “mejor garantía para alarmas”; “cuál es la mejor garantía para lavadoras”? Quizás para un sector muy particular (ej: automoción) alguien sí que puede buscar información sobre la garantía de un producto en Google, pero en principio no. Por lo que se recomienda hacer una búsqueda de palabras clave entorno a Garantía para ver si existen Keywords con volumen de búsqueda.
  • Sobre nosotros: igual que garantías. Si hay intención real de búsqueda de términos como: “Qué es (Nombre_de_tu_empresa)” ; “historia de (Nombre_de_tu_empresa)”; etc., sí que podría indexarse, sino no.
  • Políticas de privacidad, aviso legal, cookies y similares: Hay que desindexarlas, no ayudan al posicionamiento y además suelen ser textos tipo, por lo que representan contenido duplicado para tu web. Nadie se pone a buscarlo en Google así que es muy recomendable que este contenido sea desindexado.
  • Página de contacto: esta página funciona cómo alguna de las anteriores. Si hay intención de búsqueda podría indexarse, sino no. Deberías analizar las búsquedas de los usuarios.
  • Preguntas frecuentes: La correcta estructura debería de ser la siguiente:
    • Página de preguntas frecuentes a nivel general donde salgan los títulos de todas las preguntas. Esta página debe estar desindexada.
    • Hacer una página por cada pregunta frecuente que tiene intención de búsqueda real e indexarla. Esta página debe estar enlazada internamente desde la página de preguntas frecuentes general.
  • Páginas de producto: La gente acostumbra a indexar todas las páginas de producto. Sólo deberían de indexarse los productos con una intención de búsqueda por parte del usuario, incluyendo aquellos productos que tengan muy pocas búsquedas. Por ejemplo, sí que tienes que  indexar un producto que tenga 10 o 20 búsquedas mensuales.
  • Páginas de producto desindexadas: Aunque se recomienda NO indexar aquellos productos que nadie busca, no se recomienda eliminarlos en la web ya que pueden generar ventas a través de la venta cruzada o a través de la navegación interna por la web.
  • Página de soporte o ayuda: Esta información sólo es relevante para tus usuarios y para los internautas que ya están en la página web. No te van a generar ni tráfico bueno ni de calidad.
  • Páginas de ofertas: A no ser que haya búsquedas por: “ofertas de ropa”; “ofertas de viajes”; etc han de estar desindexadas.
  • Productos descatalogados: Se debe desindexar tanto la página general como de cada producto. Dejarlas indexadas es un gran error.
  • Páginas en inglés: Por ejemplo: “About us”; “About us company”. En muchas ocasiones nos hemos encontrado páginas en otro idioma indexada.
  • Páginas de la plantilla de origen: La home, entradas, páginas con “Lorem ipsum”, etc. Esto es un error garrafal.
  • Páginas de packs de productos
  • Página con “otros productos recomendados”: Si tienes una categoría de productos, donde tienes los productos de esa categoría, no es necesario crear una página con “otros-productos” de esa categoría.
  • Páginas 404: Estas páginas crean una mala experiencia para los usuarios y es muy probable que los visitantes se vayan de tu web tan pronto como han llegado si se encuentran con un error 404. Desindexa estas páginas porque con ellas no cubres las necesidades de tus usuarios.
  • Páginas del proceso de compra, check out, condiciones de pago y similares: Estas páginas solo muestran información cuando es un cliente registrado o cuando realiza una compra, por lo general presentan poca información y es tontería indexarlas.
  • URLs de las categorías del blog por fechas
  • La página general del blog: A menos que se quiera posicionar por: “blog de marketing”; “blog de coches”; “blog de neveras”, etc. Esta página genera mucho contenido duplicado ya que aparece texto de las entradas del blog que sí que hay que indexar.
  • Páginas explicativas de “Cómo comprar en tu tienda” para guiar al usuario.
  • Páginas para suscripción: Estas páginas o landings suelen crearse para campañas publicitarias específicas o para captar leads con una oferta o algún sorteo. Desindéxalas.  
  • Las páginas con etiquetas “tags”.
  • Las páginas de documentos, PDFs, manuales de productos, etc.
  • Páginas de ejemplo o de prueba.
  • Sitemaps o mapas del sitio: Hay páginas que crean sitios con un resumen de cada una de las páginas de una web. No es interesante indexar todo esto en los buscadores.

¿Qué Páginas Debo Desindexar?

Cuando se termina de diseñar una página web llega el momento de indexarla en buscadores, porque de nada sirve tener la mejor página si nadie es capaz de encontrarla. Tienes que indexarla para comenzar a recibir visitas, pero… ¿qué tienes que indexar?

Existen una serie de motivos por los que no has de indexar todo tu sitio. Si decides indexar todas tus páginas los buscadores, como ya te hemos comentado, te penalizarán por contenido duplicado o de mala calidad y también por la tasa de rebote.

Siempre han de estar indexados tus servicios o lo que ofreces. Imagina que en tus rich snippets aparecen las políticas de cookies o de privacidad, los usuarios no visitarían tu página y si lo hacen, se irán rápidamente.

Por esto has de tener claro qué páginas indexar y sobre todo, cuáles no. No mostrar todas y cada una de tus páginas en los buscadores, no te perjudica. Es más, te beneficia ya que muestras a los usuarios los contenidos más útiles para ellos.

Piensa siempre en tus visitantes y en su intención de búsqueda. Acompaña esto con un buen contenido plagado de buenos textos y una buena optimización y lo tendrás hecho.

Otros puntos a analizar sobre el SEO analizando el comando SITE:

Aparte de esta lista con las páginas de tu web que no deberían estar indexadas, también existen otra serie de puntos a analizar a través del comando site:

  • URLs acabadas en .html: Esto es un formato antiguo y todas las URLs deben de tener el mismo formato. Las páginas que no sirvan no deben de estar indexadas.

Para eliminar páginas indexadas podemos hacer que el buscador revise de nuevo esa página y la elimine de los resultados aunque esto podría tardar horas, días o incluso meses. Otra opción es eliminarla a través de Google Search Console, aquí en el apartado Índice de Google y Eliminación de url, eliminarás temporalmente una URL de los resultados. Esto es temporalmente porque Google continuamente visita sitios e indexa todo lo que se encuentre. Hay que darle al botón “ocultar temporalmente” y eliminarlos. La próxima vez que Google revise ese sitio web, esa página indicará noindex por lo que no se indexará.

  • Identificación de URLs con “migas de pan” o con niveles de profundidad muy largos: “tu_dominio.com/categoria1/subcategoria2/sub-subcategoría/producto. Por ejemplo, hay webs, como Zalando que lo hacen muy bien y todos sus productos cuelgan de la Home. Otras, en cambio, cometen errores con esto.
  • Observar patrones repetitivos en los títulos o títulos no optimizados: Tipo de escritura del título (ejemplo: no comenzar con mayúscula la primera letra, estructura: “alarmas wifi | alarma casa | alarma hogar | alarma gsm) para tratar de posicionar multiples keywords en una sola página.
  • Observar patrones repetitivos en las metas descripciones o que no estén optimizados.
  • Observar si hay rich snippets, emoticonos y otros puntos de optimización para mejorar el CTR. (Aquí podríamos poner una infografía con las distintas mejoras para el CTR en las SERPs de Google).
  • Metadescripciones con términos como las redes sociales, boletín informativo, regístrate y otras palabras clave sin valor. O metadescripciones con listado de productos o características que NO generan engagement.
  • Títulos y metadescripciones que se cortan, etc.
  • En otro capítulo ver cómo usar Screaming frog para detectar fallos de metas de manera masiva y rápida.

4.3. Metodología de Análisis Caso Real

Para este punto, usaremos tres sistemas de análisis.

  1. El comando “Site:dominio.com”.
  2. Google Search Console – Índice de Cobertura. (En el caso de que se tengan accesos).

Análisis por site:

Al utilizar “site:tuboutiquenatural.com” vemos que nos indica que hay 203 URLs indexadas. Teniendo en cuenta que es una tienda con varias decenas de categorías y unos 100 productos, parece ser un buen dato, aunque a priori nos parecen demasiadas URLs indexadas.

Pensamos que no debería de haber más de 150 URLs indexadas.

Además, tras el análisis realizado en el punto anterior con NetPeak Spider, ya detectamos algunos fallos de indexación como URLs con directorios tipo: “/inicio/” o “/blog/tag/”.

Análisis por “site:tuboutiquenatural.com”

Al usar “site:tuboutiquenatural.com” encontramos 203 URLs. Recordamos que, para webs muy grandes, este sistema es incompleto ya que Google no te va a mostrar todas las URLs indexadas. Tiene un límite de, aproximadamente, 10 páginas de resultados de Búsqueda.

Dentro de estos resultados, consideramos desindexar las siguientes URLs:

https://tuboutiquenatural.com/contactanos
https://tuboutiquenatural.com/mas-vendido
https://tuboutiquenatural.com/nuevos-productos
https://tuboutiquenatural.com/bajamos-precios
https://tuboutiquenatural.com/tiendas
https://tuboutiquenatural.com/blog/tag/colageno
https://tuboutiquenatural.com/blog/author/5-victor-garcia
https://tuboutiquenatural.com/module/productcomments/default
https://tuboutiquenatural.com/blog/category/1-categoria-colageno.html
https://tuboutiquenatural.com/inicio/120-saciapetit.html
https://tuboutiquenatural.com/inicio/121-abdofin.html
https://tuboutiquenatural.com/content/category/1-inicio
http://tuboutiquenatural.com/guia-dieta-de-adelgazamiento-mediterranea.pdf
https://tuboutiquenatural.com/control-de-peso-15?p=2
https://tuboutiquenatural.com/colagenos-y-cartilagos-25?p=2
Análisis por “site:tuboutiquenatural.com + /carpetas/”

Como hemos podido ver, aparecen algunas URLs indexadas con directorios y/o subcarpetas, que deberían desindexarse.

Directorios detectados:

  • /blog/tag/
  • /blog/autor/
  • /module/
  • /blog/category/
  • /inicio/
  • /content/category
  • Archivos PDF
  • URLs con parámetros de paginado: “?p=X”

Para conocer todas esas URLs podríamos hacer un análisis más exhaustivo utilizando las siguientes estructuras:

 “site:tuboutiquenatural.com /inicio/”

Al hacer esto, encontramos 5 URLs con esa estructura que habría que eliminar.

Para webs más complejas recomendamos usar también Google Search Console – Índice de Cobertura.

Análisis por Google Search Console

En este caso nos iríamos a Google Search Console para analizar todo esto.

Aquí podemos ver un buen resumen del estado de nuestra web.

Lo primero sería analizar los errores y las advertencias, pero ojo, habría que ver bien qué nos dice porque pueden que nos aparezcan errores que realmente NO lo sean.

En nuestro caso la advertencia que sale es:

  • Se ha indexado, aunque un archivo robots.txt la ha bloqueado

Y esa URL es:

https://tuboutiquenatural.com/content/6-cupon-10-euros-descuento

En este caso, esto es algo que hemos realizado nosotros. Hemos decidido bloquear esa URL porque no tiene valor SEO y como antes estaba indexada, pues salta este error.

También es conveniente revisar esas URLs Indexadas. Las que están correctas. Al ir a este apartado podremos ver si esas URLs indexadas dan errores, si está enviada en el sitemap e indexada y si están indexada pero no está en el sitemap.

Enviadas en el Sitempa e indexadas:

Nos aparecen 131 URLs, al mirarlas todas, hemos encontrado 1 URL rara o que no debería de estar. Estas URLs son:

  • /tiendas
  • /fabricantes
  • /mapa-web

Son URLs sin valor SEO y habría que desindexarlas. Además de desindexarlas, habría que poner a sus enlaces internos NOFOLLOW para que no haya errores de Pérdida y Mala Reparto de PageRank (PageRank: Redirect en NetPeak Spider) a webs bloqueadas por Robots.

Por todo lo demás, OK.

NO enviadas en el Sitempa, SÍ indexadas:

En este caso vemos 32 URLs en esta sección. Al analizarlas, encontramos que son páginas de:

  • Productos: Habría que incluirlas en el sitemap si son de interés SEO.
  • Entradas del blog y el blog “/blog”: Sí hay que incluir las entradas y el blog en el sitemap para facilitar a Google que las indexe bien.
  • URLs que habría que desindexar como:
    • /nuevos-productos
    • /mas-vendido
    • /bajamos-precios
    • /contactanos
    • /proveedor
    • /content/category
    • /blog/category
    • /module/
    • /mas-vendido?p=X
    • /inicio/
    • /blog/autor/
  • Como podéis ver esas son URLs y directorios que ya más o menos teníamos identificados. Hay que proceder a su desindexación. Pero, además, hemos encontrado que se están indexando el paginado de determinadas categorías. Esto es, para categorías que tienen muchos productos y que tienen página 1, página 2, etc. Esto puede generar problemas de contenido duplicado y son páginas sin valor SEO que habría que desindexar también.
    • /colágenos-y-cartilagos-25?p=X
    • /control-de-peso-15?p=X
    • /colageno-53?p=X
    • /aquisana-37?p=X
    • /qualnat-39?p=X
URLs Excluidas:

Se recomienda revisar también las URLs excluidas por si acaso estamos excluyendo alguna URL de valor. En este caso encontramos distintas categorías que hay que revisar.

Tras este análisis vemos lo siguiente en base al TIPO (Motivo de porqué están excluidas de la indexación):

  • Página con redirección: Aparecen bloqueadas con redirección: Un post y una decena de categorías que son útiles para SEO. Habría que ver porqué está así y resolver este problema para que se indexen. Un punto importante es ver que a estas URLs no hay enlaces internos. Si hay algún enlace interno a estas URLs habría que cambiarlos por el enlace correcto.
  • Anomalía en el rastreo: La categoría de Omega 3 aparece bloqueada aquí y debería estar indexada.
  • Descubierta – Actualmente sin indexar: Aparecen 4 productos que deberían estar indexados.
  • Rastreada – Actualmente sin indexar:  Aparece la URL de /natural-cosmetics-49 aquí. Si hacemos el site: de esta URL vemos que realmente sí aparece en Google, pero es una URL sin productos y sin valor. Debería de eliminarse completamente de los resultados de búsqueda.

Recordamos que las páginas Excluidas que aparecen en el tipo:

  • Bloqueadas por Robots.txt
  • Páginas alternativas con etiqueta canonical adecuada
  • Página con redirección
  • Excluida por una etiqueta No Index

Son URLs que yo he decidido excluir y está bien así. Simplemente hay que mirar que no haya links internos a esas URLs excluidas.

Conclusiones del Estado de Indexación

Aunque sea una web pequeña, vemos múltiples aspectos que hay que pulir. Estos errores hay que solventarlos uno a uno por el equipo técnico y esperar a que sean implementados por los robots de los diferentes buscadores.

5. Análisis de la Velocidad de Carga

A medida que avanzan los cambios que va implementando Google, nos vamos dando cuenta que la experiencia de usuario y la velocidad de carga de tu webiste es vital.

Y ya no sólo en versión PC, sino también en versión móvil. Google sabe que, por cada segundo de más, tu página web puede perder usuarios. Y eso no le gusta.

Si un usuario encuentra en las SEPRs algo de su interés y hace clic en dicho resultado, Google quiere que el usuario tenga una buena experiencia, navegue con facilidad y que rápidamente encuentre lo que busca.

Por ello, tener una magnífica velocidad de carga es primordial.

5.1. ¿Cómo Analizar la Velocidad de Carga de tu web?

Por suerte para todos, tanto Google como otras empresas ponen a disposición de todo el mundo, herramientas gratuitas para analizar la velocidad de carga y, con el análisis oportuno, podemos detectar dónde se encuentran nuestros problemas.

Principales herramientas para medir la velocidad de carga

  • Google PageSpeed Insight
  • GTMetrix
  • Pingdom Tool
  • WebPageTest.org

Lo importante, con estas herramientas, no es el resultado final o la media global de salud del sitio que nos da. Ese dato hay que tomarlo como orientativo.

Lo realmente importante es analizar cada uno de los puntos que se analizan y ver cómo mejorar cada uno de ellos.

Principales puntos a tener en cuenta

  • Peso de la página
  • Tiempo de respuesta del servidor
  • Cantidad de plug ins / módulos instalados
  • Imágenes optimizadas
  • Minimizar o eliminar los CSS y JS sin utilizar
  • Tamaño del DOM
  • Número de request
  • Optimización de la Caché
  • Utilizar módulos y plug ins para mejorar la velocidad de carga

Deja un comentario