📧 director@victorgbarco.com
🥇 Consultores SEO Valladolid | Especialistas en SEO, CRO y Amazon

Especialistas en Auditorías SEO

Nos Enfocamos en Mejorar el SEO de tu Sitio Web

Optimiza el SEO On Page

Google cambia constantemente sus Algoritmos y, por este motivo, tu Sitio Web debe revisarse con frecuencia. ¿Sabes cómo te Puede Afectar?

Encontramos los Errores

Una Auditoría SEO te Ayudará a Detectar los posibles problemas que puedes tener y a obtener un mejor Rendimiento de tu Web.

Auditoría de Linkbuilding

Un Perfil Malo de Enlaces es uno de los Motivos para que tu tráfico caiga por un Cambio en el Algoritmo de Google. ¿Quién te está enlazando?

Las Auditorías SEO Mejorarán tu Negocio

Para Sitios Web con mucho movimiento, URLs, cambios de diseño, publicación de nuevos productos, artículos en el blog y categorías...

Una Auditoría SEO es Necesaria porque te ayudará a encontrar los posibles errores que se han generado con el paso del tiempo.

%

Detecta y elimina Errores de Indexación existentes.

%

Mejora la Navegabilidad de los Usuarios por tu Sitio Web.

%

Mejora el Posicionamiento SEO de una forma efectiva.

Para Hacer una Auditoría SEO se requiere...

Uno de los Puntos Más Importantes a la Hora de Hacer una Auditoría SEO es el manejo de las Herramientas Especializadas para dicho fin.

En nuestra Agencia Manejamos de Manera Profesional muchas de ellas y por ello, te destacamos aquí algunas:

Screaming Frog & Screaming Frog Log Analyzer
%
Semrush & AHREFS
%
NetPeak Spider - Para SEO Técnico
%
Google Search Console & Google Analytics
%
Safecont & DinoRank & Ryte
%

Solicita Presupuesto para tu Auditoría SEO

Si hace más de 6 meses que no revisas Realmente tu Web, pídenos presupuesto. De hecho, antes, ve a Google y escribe:

site:https://escribetudominio.com

Y mira los resultados que aparecen. Si te encuentras cosas raras, necesitas una Auditoría SEO.

URL Analizadas

Clientes Satisfechos

%

Mejora del Tráfico

Ejemplo de una AUDITORÍA SEO COMPLETA

1.  ANÁLISIS DE LA CACHÉ

Esta es la información que nos da un análisis de Caché

1.1.   Último cacheado de nuestra web

¿Cuándo se realizó el último cacheado de la web? Es decir, ¿cuándo fue la última vez que pasó la araña de Google por nuestra página web?

Día del Análisis: 10 abril 2019

Último cacheado: 31 Mar 2019

Últimos cacheados de nuestra competencia:

  1. Denatural: 1 Abr 2019
  2. Mifarma: 30 Mar 2019
  3. HerbalCornerShop: 31 Mar 2019
  4. Mom-Natura: 31 Mar 2019
  5. Herbolario Online: 2 Abr 2019

Nuestro Status: OK

Textos Iniciales de la web

En este apartado vamos a Analizar qué es lo primero que ve la araña de Google y de otros buscadores de nuestra web, lo vamos a comparar con nuestra competencia y, en base a esto, decidiremos realizar cambios en nuestra web.

Información que aparece en la web, previa al menú:

Tu Boutique Naturalauditoria seo

De Natural

auditoria seo

Mifarma

auditoria seo

Herbalcornershop

auditoria seo

Mon-Natura

auditoria seo

El Herbolario Online

auditoria seo

Conclusiones

Podemos sacar las siguientes conclusiones tras este análisis:

  1. La información en esta página web no está bien organizada. Los términos más importantes por los que quiere posicionar la Home: “Herbolario”, “Herbolario Online” o “Herboristería”, no aparecen en lo más alto de la web, por lo que las arañas de Google tardan mucho en saber de qué va nuestra web.
  2. Aparecen links y referencias muy ambiguas que no deberían estar ahí. Además, esos links deberían comprobarse que son todos NOFOLLOW para que no se diluya la Autoridad de la página web y, además, esas páginas deberían estar bloqueados por Robots.txt. Estos links y páginas son:
    • Lista de deseos
    • Comparar productos
    • Contacto
    • Iniciar sesión
    • Tu Boutique Natural
    • Carro de la compra
    • 0,00 €
    • Confirmar
    • Pasar por caja
  1. Así mismo, el texto que existe en el análisis de la cache: que hay entre medias de esos links debería limpiarse.
  2. Vemos que hay una página de la competencia que tiene mucho texto SEO de lo primero, habiendo modificado esto a medida. Hemos analizado su histórico y sus backlinks mediante Semrush y da la impresión de que han posicionado muy rápido siendo los que menos Backlinks y los que menos DA y PA tienen entre todos los resultados de Búsqueda TOP 5 por la palabra: “Herbolario Online”. Por lo que recomendamos una optimización similar.
  3. Analizando los resultados de cache:dominio.com más en profundidad y que no aparece en las capturas de pantalla, vemos lo siguiente:
    • Las webs de la competencia son mucho mayores en cuanto a categorías, productos, etc., que la web del estudio. Por ende, recomendamos crear una estrategia de blog mucho más fuerte si no se puede aumentar la cantidad de productos y de categorías.
    • Adicionalmente, debemos poner más texto en la parte superior como Herbalcornershop y, sobre todo, que aparezcan las principales palabras clave, lo más arriba posible.
    • La web del estudio es la única que tiene un scroll en el análisis del cacheado. No sabemos cómo afectará esto al rastreo. ¿Es oportuno dejarlo así, eliminarlo?

2. Análisis de Logs

En este punto vamos a analizar los logs mediante Screaming Frog Log Analyzer. Vamos a ver qué Hits recibe nuestra web de Google Bots para PC y móvil y qué URLs son las que mejor están siendo rastreadas.

En este punto habría que medir los siguientes puntos:

  • Fecha de la interacción
  • URLs
  • Código de Estado
    • 1xxx
    • 2xxx
    • 3xxx
    • 4xxx
    • 5xxx
  • User Agent (Google Bots)
  • Referers
  • URLs Inconsistentes

Adicionalmente, para webs más grandes, es interesante medir y cruzar la siguiente información:

  • Cuantas urls reciben tráfico en Analytics.
  • Cuantas urls reciben clics en Search Console.
  • Y si esas urls son las que más hits reciben.

Conclusiones de logs

De momento, hay muy poca información de los logs. Lo que vemos es que los bots de Google, pasan con muy poca frecuencia. Esta frecuencia es:

  • 28 febrero 2019
  • 26 marzo 2019

De esta información sacamos las conclusiones siguientes:

Los robots pasan por la Home, pero no parece que pasen por las diferentes categorías o productos, por lo que puede haber un problema de linkado interno que hay que analizar más profundamente.

Tampoco pasan por los contenidos del blog y, más en concreto, con el súper post de: “Cuál es el mejor colágeno hidrolizado del mercado”. Por lo que deberíamos linkar este artículo en la Home y lo más arriba posible.

Vemos reflejado sólo un error 400 para la URL de mywhistlist (Lista de Deseos).

Respecto a User Agents (Bots), recibimos pocos Hits de todos los buscadores en General.

No vemos más errores en los códigos de estado y tampoco encontramos URLs inconsistentes.

¿Cómo podemos hacer que Google visite nuestra web más constantemente?

  1. La web es muy nueva.
  2. Generando contenido nuevo cada semana y avisando a Google de que hemos creado o modificado el contenido de alguna URL. Este aviso se puede realizar manualmente a través de Google Search Console con la Herramienta de Inspección de URLs.

3.  Análisis de Técnico de SEO On Page

Para este análisis se utiliza la Herramienta de pago: NetPeak Spider. Y estos son los principales puntos que vamos a analizar:

  • Internal PageRank
  • Código de Estado
  • Respose Time
  • Internal links
  • Crawl Deep (Niveles de Clics Diferente a Niveles de Directorios)
  • PageRank DeadEnd
  • PageRank Redirect
  • Redirect Chain
  • Duplicated Canonical URL
  • Max Redirections
  • Redirect Blocked by Robots.txt
  • Canonical Chain

Adicionalmente a esta información, debemos de solucionar cualquier otro problema Grave (en rojo) o Advertencia (Amarillo-Naranja) que arroje la herramienta.

Conclusiones a través del Dashboard

Estos son los errores que hemos encontrado:

Títulos Duplicados

https://tuboutiquenatural.com/blog

https://tuboutiquenatural.com/blog/tag/colageno

Aquí vemos que se trata del Blog y de la URL para la etiqueta del blog: “Colágeno”. Al pasar el comando “site:” a la URL de la tag, vemos que está indexada, por lo que hay que desindexarla.

Esto nos podría traer más problemas en el futuro por lo que, no sólo hay que desindexar esa URL sino la directriz /blog/tag/ en el robots.txt para que esto no ocurra cuando se creen automáticamente otras tag para otro tipo de Post.

Descripciones Duplicadas

Este problema se da entre las mismas URLs por lo que con la medida anterior, se solucionará.

H1 Duplicadas

Las etiquetas H1 son vitales para indicar a Google y a otros buscadores, qué es lo que más quieres destacar tú de cada página. La duplicidad de H1 puede llevar a problemas como, por ejemplo, la canibalización, y no deja claro a los robots qué deben de tener en cuenta o a qué URL hay que darle prioridad.

Así que tenemos que analizar esto bien para ver si puede estar habiendo un problema de Canibalización u otro tipo de problema.

En este caso, las URLs con H1 Duplicadas son:

https://tuboutiquenatural.com/mas-vendido

https://tuboutiquenatural.com/mas-vendido?p=2

https://tuboutiquenatural.com/mas-vendido?p=3

https://tuboutiquenatural.com/mas-vendido?p=4

Como podemos ver, el problema reside en que se está indexando tanto la página “Más vendido” como su paginación.

En este caso, esta URL no es importante para términos de SEO. Es decir, esta URL no va a atraer tráfico a la web, por lo que hay que desindexarla.

No obstante, se puede dejar publicada porque puede mejorar la Experiencia de Usuario y mejorar el tiempo medio de estancia en la página, ya que los internautas tienden a echar un ojo a estas secciones para ver qué productos son los más consumidos.

Descripciones Vacías

Podemos ver que hay 77 URLs sin Meta Descripciones, lo que indica que hay que mejorar bastante todavía el SEO On Page dado que la web, tiene indexadas, aproximadamente 170 URLs.

Esto quiere decir que, algo más del 40% de las URLs no están bien optimizadas en cuanto al SEO On Page.

Una conclusión que podemos extraer extrapolando esta información en base a nuestra experiencia es que habría que hacer un análisis completo del SEO On Page y hacer una programación mensual para ir resolviendo este problema.

Esto preferimos y recomendamos hacerlo mejor con la herramienta Screaming Frog. Aquí podéis ver vídeo tutoriales de cómo usar esta herramienta.

Analizando todas esas URLs podemos ver lo siguiente:

  1. Principalmente son productos. Esto no es una prioridad para el proyecto ya que, antes, habría que optimizar el SEO On Page de la Home, de las Categorías y analizar en qué productos SÍ es interesante atacar a nivel SEO. Que seguramente no serán todos.
  2. Vemos URLs con el directorio: /inicio/
  3. Vemos una URL con el directorio: /comparativa-productos
  4. Vemos URLs con el directorio: /mas-vendidos

Lo que nos lleva a pensar que deberíamos analizar muy bien lo que se está indexando y lo que no, mediante el comando: “site:dominio.com” y Search Console, para desindexar todas aquellas URLs que no sean de interés.

Redirecciones Bloqueadas por Robots.txt

Este error hace referencia a que hay URLs que tienen redirecciones a páginas bloqueadas por Robots. Esto puede ser un problema porque estaríamos mandando PA a unas páginas que están bloqueadas y que, por lo tanto, no tienen interés SEO para nosotros.

Así que, ¿por qué mandar Autoridad SEO a páginas que no nos interesan en SEO?

Al analizar este error encontramos que ocurre con 3 URLs:

https://tuboutiquenatural.com/mi-cuenta

https://tuboutiquenatural.com/module/blockwishlist/mywishlist

https://tuboutiquenatural.com/inicio-sesion

Analizando la página podemos ver que:

  1. La Home tiene un link que lleva a la página de /mi-cuenta. Pero esta está redirigida a la URL de /pedido-rapido. Solución: En la Home, habría que eliminar el link de /mi-cuenta, habría que bloquearlo por Robots y, en su lugar, poner el link de /pedido-rapido. Adicionalmente, a ese link habría que ponerle un NOFOLLOW y asegurarse de que /pedido-rapido está bloqueada por Robots al no tener importancia para SEO.
  2. Ocurre lo mismo exactamente para la URL /module/ blockwishlist/mywishlist
  3. La URL /inicio-sesion está en medio de la redirección de /mi-cuenta a /pedido-rapido. De esta forma se está generando una Cadena de Redirecciones que también hay que solucionar.

PageRank: Dead End | PageRank: Redirect | Cadenas de Redirecciones

Este dato hace relación a que hay páginas que reciben links internos, y por lo tanto autoridad, y que no tienen ningún link interno para mandar esa autoridad recibida a otras partes de la web.

Lo ideal es que el traspaso de autoridad no se quede estancado en ningún punto y que siempre esté circulando por la web, volviendo a la Home, a otra Categoría, a un artículo que queramos potenciar y que guarde relación con lo que se habla en esa URL, etc.

En este caso encontramos dos páginas con PageRank Dead End:

https://tuboutiquenatural.com/content/6-cupon-10-euros-descuento

https://tuboutiquenatural.com/pedido-rapido?rc=1&back=https://tuboutiquenatural.com/module/blockwishlist/mywishlist

La primera de ellas es una página donde se te lleva a un formulario de registro para conseguir un código de descuento. En este caso, lo ideal es que ese link sea NOFOLLOW y que esa página no esté indexada. No es una página para SEO, pero si es una URL útil para mejorar la captación de Leads y, por lo tanto, para mejorar la venta y los ingresos de la web.

En el caso de que se dejara el enlace como Follow, recomendaríamos poner un enlace de vuelta a la Home, para que no se desaproveche esa autoridad cedida desde la Home. Pero lo ideal es el primer punto.

En el segundo caso, la URL representa la página de compra, por lo que debe ser una página bloqueada en los Robots y con un NoFollow.

Otros Problemas Detectados sobre los que hay que actuar

  • 196 páginas tienen un tiempo de respuesta del servidor muy largo.
  • Faltan 21 etiquetas H1 – Optimización SEO On Page con Screaming Frog.
  • 40 imágenes sin etiquetas ALT – Optimización SEO On Page con Screaming Frog.
  • 41 imágenes con tamaño muy grande: – Optimización SEO On Page con Screaming Frog.

Conclusiones a través del PDF NetPeak

Vemos los siguientes problemas:

  • Hay 196 páginas con problemas de velocidad de carga. Incluye URLs de fotos.
  • Vemos que hay un % muy alto de páginas de imágenes vs páginas de texto/HTML
  • Hay demasiadas páginas con Disallow en los Robots. Páginas denominadas: “Non-compliant”. Esto no supone un problema ahora, pero pueden suponer un problema de Desperdicio de Crawl Budget en el futuro.

4.  Estado de Indexación

4.1.  ¿Qué es el estado de indexación?

El estado de indexación hace referencia a aquellas URLs de nuestro sitio web que Google está indexando. Es decir, aquellas URLs que le estamos diciendo a los robots que queremos que tenga en cuenta y que muestre en los resultados de búsqueda.

Un error muy frecuente es pensar que cuantas más URLs tengamos indexadas mejor. Pero NO es así. Lo realmente importante es que debemos darle a Google únicamente las URLs que tengan importancia para SEO, es decir, aquellas que nos pueden traer visitantes de calidad a nuestra web.

Además, para sitios muy grandes, cuanto más limpio esté este apartado, mejor. Puesto que facilitaremos a Google a entender y a moverse por las URLs de nuestra web de mejor manera. Y esto Google lo recompensará.

Ejemplo de URLs que no deberían de indexarse:

  • Contacto
  • Políticas de privacidad, términos y condiciones y avisos legales.
  • Páginas de carrito.
  • Directorios sin valor SEO, cómo son los módulos, imágenes, etc.
  • Páginas de Servicio, si ese servicio no tiene búsquedas.
  • Páginas de Producto cuyo producto no tenga búsquedas en Google.
  • Páginas con errores 4xx.
  • Páginas NO optimizadas para SEO.

4.2.  Metodología de Análisis

Para este punto, usaremos tres sistemas de análisis.

  1. El comando “Site:dominio.com”.
  2. Google Search Console – Índice de Cobertura. (En el caso de que se tengan accesos).

Análisis por site:

Al utilizar “site:tuboutiquenatural.com” vemos que nos indica que hay 203 URLs indexadas. Teniendo en cuenta que es una tienda con varias decenas de categorías y unos 100 productos, parece ser un buen dato, aunque a priori nos parecen demasiadas URLs indexadas.

Pensamos que no debería de haber más de 150 URLs indexadas.

Además, tras el análisis realizado en el punto anterior con NetPeak Spider, ya detectamos algunos fallos de indexación como URLs con directorios tipo: “/inicio/” o “/blog/tag/”.

Análisis por “site:tuboutiquenatural.com”

Al usar “site:tuboutiquenatural.com” encontramos 203 URLs. Recordamos que, para webs muy grandes, este sistema es incompleto ya que Google no te va a mostrar todas las URLs indexadas. Tiene un límite de, aproximadamente, 10 páginas de resultados de Búsqueda.

Dentro de estos resultados, consideramos desindexar las siguientes URLs:

https://tuboutiquenatural.com/contactanos

https://tuboutiquenatural.com/mas-vendido

https://tuboutiquenatural.com/nuevos-productos

https://tuboutiquenatural.com/bajamos-precios

https://tuboutiquenatural.com/tiendas

https://tuboutiquenatural.com/blog/tag/colageno

https://tuboutiquenatural.com/blog/author/5-victor-garcia

https://tuboutiquenatural.com/module/productcomments/default

https://tuboutiquenatural.com/blog/category/1-categoria-colageno.html

https://tuboutiquenatural.com/inicio/120-saciapetit.html

https://tuboutiquenatural.com/inicio/121-abdofin.html

https://tuboutiquenatural.com/content/category/1-inicio

http://tuboutiquenatural.com/guia-dieta-de-adelgazamiento-mediterranea.pdf

https://tuboutiquenatural.com/control-de-peso-15?p=2

https://tuboutiquenatural.com/colagenos-y-cartilagos-25?p=2

Análisis por “site:tuboutiquenatural.com + /carpetas/”

Como hemos podido ver, aparecen algunas URLs indexadas con directorios y/o subcarpetas, que deberían desindexarse.

Directorios detectados:

  • /blog/tag/
  • /blog/autor/
  • /module/
  • /blog/category/
  • /inicio/
  • /content/category
  • Archivos PDF
  • URLs con parámetros de paginado: “?p=X”

Para conocer todas esas URLs podríamos hacer un análisis más exhaustivo utilizando las siguientes estructuras:

“site:tuboutiquenatural.com /inicio/”

Al hacer esto, encontramos 5 URLs con esa estructura que habría que eliminar.

Para webs más complejas recomendamos usar también Google Search Console – Índice de Cobertura.

Análisis por Google Search Console

En este caso nos iríamos a Google Search Console para analizar todo esto.

Aquí podemos ver un buen resumen del estado de nuestra web.

Lo primero sería analizar los errores y las advertencias, pero ojo, habría que ver bien qué nos dice porque pueden que nos aparezcan errores que realmente NO lo sean.

En nuestro caso la advertencia que sale es:

  • Se ha indexado, aunque un archivo robots.txt la ha bloqueado

Y esa URL es:

https://tuboutiquenatural.com/content/6-cupon-10-euros-descuento

En este caso, esto es algo que hemos realizado nosotros. Hemos decidido bloquear esa URL porque no tiene valor SEO y como antes estaba indexada, pues salta este error.

También es conveniente revisar esas URLs Indexadas. Las que están correctas. Al ir a este apartado podremos ver si esas URLs indexadas dan errores, si está enviada en el sitemap e indexada y si están indexada pero no está en el sitemap.

Enviadas en el Sitempa e indexadas:

Nos aparecen 131 URLs, al mirarlas todas, hemos encontrado 1 URL rara o que no debería de estar. Estas URLs son:

  • /tiendas
  • /fabricantes
  • /mapa-web

Son URLs sin valor SEO y habría que desindexarlas. Además de desindexarlas, habría que poner a sus enlaces internos NOFOLLOW para que no haya errores de Pérdida y Mala Reparto de PageRank (PageRank: Redirect en NetPeak Spider) a webs bloqueadas por Robots.

Por todo lo demás, OK.

NO enviadas en el Sitempa, SÍ indexadas:

En este caso vemos 32 URLs en esta sección. Al analizarlas, encontramos que son páginas de:

  • Productos: Habría que incluirlas en el sitemap si son de interés SEO.
  • Entradas del blog y el blog “/blog”: Sí hay que incluir las entradas y el blog en el sitemap para facilitar a Google que las indexe bien.
  • URLs que habría que desindexar como:
    • /nuevos-productos
    • /mas-vendido
    • /bajamos-precios
    • /contactanos
    • /proveedor
    • /content/category
    • /blog/category
    • /module/
    • /mas-vendido?p=X
    • /inicio/
    • /blog/autor/
  • Como podéis ver esas son URLs y directorios que ya más o menos teníamos identificados. Hay que proceder a su desindexación. Pero, además, hemos encontrado que se están indexando el paginado de determinadas categorías. Esto es, para categorías que tienen muchos productos y que tienen página 1, página 2, etc. Esto puede generar problemas de contenido duplicado y son páginas sin valor SEO que habría que desindexar también.
    • /colágenos-y-cartilagos-25?p=X
    • /control-de-peso-15?p=X
    • /colageno-53?p=X
    • /aquisana-37?p=X
    • /qualnat-39?p=X
URLs Excluidas:

Se recomienda revisar también las URLs excluidas por si acaso estamos excluyendo alguna URL de valor. En este caso encontramos distintas categorías que hay que revisar.

Tras este análisis vemos lo siguiente en base al TIPO (Motivo de porqué están excluidas de la indexación):

  • Página con redirección: Aparecen bloqueadas con redirección: Un post y una decena de categorías que son útiles para SEO. Habría que ver porqué está así y resolver este problema para que se indexen. Un punto importante es ver que a estas URLs no hay enlaces internos. Si hay algún enlace interno a estas URLs habría que cambiarlos por el enlace correcto.
  • Anomalía en el rastreo: La categoría de Omega 3 aparece bloqueada aquí y debería estar indexada.
  • Descubierta - Actualmente sin indexar: Aparecen 4 productos que deberían estar indexados.
  • Rastreada - Actualmente sin indexar: Aparece la URL de /natural-cosmetics-49 aquí. Si hacemos el site: de esta URL vemos que realmente sí aparece en Google, pero es una URL sin productos y sin valor. Debería de eliminarse completamente de los resultados de búsqueda.

Recordamos que las páginas Excluidas que aparecen en el tipo:

  • Bloqueadas por Robots.txt
  • Páginas alternativas con etiqueta canonical adecuada
  • Página con redirección
  • Excluida por una etiqueta No Index

Son URLs que yo he decidido excluir y está bien así. Simplemente hay que mirar que no haya links internos a esas URLs excluidas.

Conclusiones del Estado de Indexación

Aunque sea una web pequeña, vemos múltiples aspectos que hay que pulir. Estos errores hay que solventarlos uno a uno por el equipo técnico y esperar a que sean implementados por los robots de los diferentes buscadores.

5.  Análisis de la Velocidad de Carga

A medida que avanzan los cambios que va implementando Google, nos vamos dando cuenta que la experiencia de usuario y la velocidad de carga de tu webiste es vital.

Y ya no sólo en versión PC, sino también en versión móvil. Google sabe que, por cada segundo de más, tu página web puede perder usuarios. Y eso no le gusta.

Si un usuario encuentra en las SEPRs algo de su interés y hace clic en dicho resultado, Google quiere que el usuario tenga una buena experiencia, navegue con facilidad y que rápidamente encuentre lo que busca.

Por ello, tener una magnífica velocidad de carga es primordial.

5.1.  ¿Cómo Analizar la Velocidad de Carga de tu web?

Por suerte para todos, tanto Google como otras empresas ponen a disposición de todo el mundo, herramientas gratuitas para analizar la velocidad de carga y, con el análisis oportuno, podemos detectar dónde se encuentran nuestros problemas.

Principales herramientas para medir la velocidad de carga

  • Google PageSpeed Insight
  • GTMetrix
  • Pingdom Tool
  • org

Lo importante, con estas herramientas, no es el resultado final o la media global de salud del sitio que nos da. Ese dato hay que tomarlo como orientativo.

Lo realmente importante es analizar cada uno de los puntos que se analizan y ver cómo mejorar cada uno de ellos.

Principales puntos a tener en cuenta

  • Peso de la página
  • Tiempo de respuesta del servidor
  • Cantidad de plug ins / módulos instalados
  • Imágenes optimizadas
  • Minimizar o eliminar los CSS y JS sin utilizar
  • Tamaño del DOM
  • Número de request
  • Optimización de la Caché
  • Utilizar módulos y plug ins para mejorar la velocidad de carga