📧 director@victorgbarco.com
🥇 Consultores SEO Valladolid | Especialistas en SEO, CRO y Amazon

Guía: Cómo usar Screaming Frog

Analizar un sitio web puede ser una tarea fácil si se trata de un proyecto pequeño que apenas inicia, pero se va complicando conforme el sitio va creciendo y se van añadiendo más artículos, imágenes, etiquetas, categorías las cuales van creado más y más URLs.

Entonces es ahí donde podemos cometer errores o perder mucho tiempo tratando de categorizar miles de URLs en un Excel. Para ayudarnos con esta tarea se creó la herramienta Screaming Frog SEO Spider, que nos permitirá llevar a cabo todo todo lo anteriormente descrito en cuestión de minutos.

A continuación, te hablaremos un poco más sobre las características de este software y el por qué debes empezar a usarlo para diseñar tu estrategia SEO.

¿Qué es Screaming Frog?

Es un software diseñado especialmente para analizar cada una de las URLs de una web detectando los principales problemas de SEO On Page de tu sitio web.

La herramienta, cuenta con dos versiones una gratuita y una de pagada. La diferencia entre las dos es que la primera te permite rastrear solamente 500 URLs de un proyecto web, mientras que la segunda es ilimitada.

¿Qué necesito para usar Screaming Frog SEO Spider?

Screaming Frog es una herramienta muy fácil de usar, tan solo basta con copiar el enlace de un sitio web e introducirlo en la parte superior de la interfaz para que comience con el análisis.

Sin embargo, es importante tener conocimiento de SEO a nivel On Page, que te permitan interpretar los resultados y definir los puntos de acción para solucionar todos los problemas que la herramienta detecte.

Pienso que lo más importante antes de usar Screaming Frog es darse una vuelta por los principales blogs enfocados al SEO como el nuestro.

¿Qué versión elijo? Free vs PRO.

Es normal que el entusiasmo de iniciar un nuevo proyecto en un sector que te gusta (por algo estás aquí) te anime a adquirir las mejores herramientas al momento.

Sin embargo, si apenas cuentas con unas webs pequeñas, lo mejor es comenzar a trabajar con la versión gratuita. Posteriormente, conforme vayas creciendo y ofreciendo tus servicios a otras personas podrás adquirir versiones de pago de esta y otras herramientas web.

¿Cómo instalo Screaming Frog?

A diferencia de otras herramientas SEO, Screaming Frog, es un software que se instala directamente en la computadora.

Lo primero que debes hacer es ir a la página oficial de Screaming Frog y dar clic en la pestaña Download que aparece en el menú ubicado en la mitad de la página.

 

Posterior a ello, se abrirá un pequeño recuadro con un botón verde en medio. Da clic ahí y comenzará la descarga.

Una vez terminada la descarga da clic en el archivo e instálalo con la configuración que vienen por default. ¡Y listo! Tendrás el software en tu computadora.

Si deseas comprarlo dirígete a la pestaña Buy & Review y da clic en ella. Te aparecerá una página donde deberás escribir tu dirección de correo eléctrico y realizar el pago.

Una vez hecho esto, te llegará la clave del producto directamente a tu mail, la cual deberás ingresar en el apartado “License” que se encuentra dentro de la interfaz del software.

Las ventajas a nivel SEO que te ofrece Screaming Frog

A nivel SEO On Page, la herramienta te permitirá encontrar hasta el último error que puedas tener en la estructura de tu sitio web.

Como verás en las siguientes secciones del artículo, desglosa parte por parte cada URL de tu sitio y te muestra en que lugar hay un error.

Es ideal para arreglar un proyecto sin importar su tamaño. Ya sea una página con muchas URLs o con poquitas.

Esto puede significar una importante mejora en las posiciones de las SERPs de Google.

Pestañas Superiores de Screaming Frog

En el menú que se encuentra en la parte superior del software encontraremos varias opciones que nos ayudarán a realizar diferentes tareas.

Sección del menú: File

 

Este apartado tendremos la oportunidad de abrir los archivos guardados en nuestra computadora y los que recientemente hemos cerrado.

También nos aparecerán otras opciones como la de “Save” que nos ayudará a no perder los rastreos que hemos hecho. A su vez encontramos el botón “Exit” que podremos usar en caso de que queramos cerrar el programa.

Sección del menú: Configuration

Uno de los apartados más importantes que tenemos a nuestra disposición dentro de la herramienta. En él podremos configurar como se realizará el rastreo tomando en cuenta el objetivo que tenemos.

En la sección 3 del artículo abordaremos las opciones más interesantes y como las podemos configurar para sacar el máximo provecho.

Sección del menú: Modo

Dependiendo de los objetivos que tengamos, es necesario elegir un modo de rastreo; Screaming Frog ofrece 3: List, Serp y Spider.

En la sección 4 de esta guía se aborda para que sirve cada uno de los modos y que resultados podemos obtener al usarlos.

Sección del Menú: Bulk Export

La información que nos puede proporcionar la herramienta es brutal. De una simple web se pueden obtener miles de datos diferentes.

Por esta razón la opción “Bulk Export” nos permite exportar esa cantidad de información a archivos CSV (Excel) donde es más fácil su procesamiento.

Sección del Menú: Sitemaps

 

En esta opción tenemos la posibilidad de crear nuestros propios archivos sitemap.xml que podremos enviar a Google.

Aunque ya no es de gran utilidad, hoy en día está opción ya no tiene ningún uso, porque existen un montón de plugins que generan el sitemap directamente en la web.

Sección del Menú: License

Si estás usando la versión gratuita del software, en este apartado encontrarás un enlace para adquirir la versión PRO.

Ahora bien, si has adquirido la versión de pago, encontrarás una ventana donde podrás introducir la clave de acceso que te permitirá disfrutar de la versión PRO.

Sección del Menú: Help

En este apartado hay información y tutoriales sobre el uso de la herramienta, así como un contacto de soporte y la posibilidad de enviar un feedback.

También puedes encontrar un apartado “About” donde hallarás información sobre el desarrollo de la herramienta y la historia de la empresa.

Aunque después de leer este tutorial y de aprender un poco de SEO, no necesitarás visitar esta sección nunca.

 Los primeros pasos…

Al acceder a la interfaz de Screaming Frog observaremos las características más importantes sobre el análisis de dominios que nos ofrece.

En las primeras dos pantallas aparecerán todos los datos del sitio web que hayamos trabajado, mientras que en el sidebar de la derecha observaremos los resultados y el estado de análisis de la herramienta.

Ahora bien, antes de realizar cualquier cosa, debemos cambiar un poco la configuración para que los resultados sean de mayor calidad.

Pestaña Basic

Para ello damos clic en el apartado “configuración” ubicado en la parte superior de la interfaz y posteriormente nos vamos a la pestaña “Spider”.

Al seleccionar, observaremos las distintas opciones de crawl con las que cuenta la herramienta. Empezaremos analizando las que se presentan en la pestaña “Basic”

La configuración recomendada es deseleccionar el crawl de las imágenes y de los archivos JavaScript y CSS.

Pasando a otra pestaña, en “Limits” podrás definir hasta qué grado de profundidad quieres realizar el análisis. Por ejemplo, si pones un grado de profundidad “Limit Crewl Depth” de 3, la herramienta solo llegará hasta las URLs que se encuentren a 3 clics de distancia del home de tu dominio.

Por lo general, no hay mucho que mover en está pestaña a menos que uses la versión gratuita y quieras usar las 500 URLs de análisis en secciones específicas de tu web.

En las pestañas Rendering y Preferences lo más recomendable es dejarlas como viene configuradas por defecto, sin realizar ningún cambio. Solo en proyectos especiales se recomienda reconfigurarlas.

En la pestaña “Advanced” encontrarás las opciones que necesitas para delimitar bien el número de URLs que vas a analizar. Puedes incluir o no, las páginas que tengan apartados no index, canonical, next/prev, entre otros.

Configurando robots.txt.

Una vez que tengamos listo todo lo anterior, es necesario regresar a la parte de configuración y seleccionar “Robots.txt”, al hacer clic aquí se nos abrirá una nueva pestaña, en la cual seleccionaremos “Settings”

 

Haciendo esto se abrirá otra ventana que nos dará 3 opciones:

  • Ignorar el archivo robots.txt: Al seleccionar esta opción, estaremos ignorado por completo la información del archivo y accederemos a todas las URLs sin importar si las bloquea o no.
  • Mostrar las URLs internas bloqueadas por robot.txt: Esta opción nos mostrará en el informe todas las URLs que se han bloqueado por el archivo. Es recomendable dejarla seleccionada para verificar que efectivamente se están bloqueando aquellas páginas a las que no queremos que acceda Google.
  • Mostrar las URLs externas bloqueadas por el archivo robots.txt: Nos ofrece una visión clara sobre las URLs externas (enlaces externos provenientes de nuestro sitio) que están siendo bloqueadas por el archivo.

Otra opción interesante que nos ofrece la herramienta es la de simular el archivo robot.txt, gracias a esto podremos realizar experimentos y cambiar la configuración de nuestro archivo hasta encontrar la que ofrece mejores resultados.

Para acceder a esta opción es necesario que busques en el menú de “Configuración” el apartado “Custom”. Al hacer clic en él se abrirá una nueva pestaña desde la cual podrás crear un nuevo archivo robot.txt y probarlo con tu sitio web. Cuando ya hayas encontrado la configuración que te convenga, solo tendrás que realizar los cambios en el archivo robot.txt de tu sitio web.

Opción URL Rewriting

Aquí podremos eliminar los parámetros de las URLs sin modificar la sintaxis de estas. Una opción no recomendada para todos los sitios web, solo para aquellos que generen las URLS paramétricas de forma dinámica, siempre y cuando estén controladas y se conozca cuáles son.

De esta forma, si fuese de ayuda modificar esta opción, aunque cuando avas a realizar un análisis por primera vez de un sitio web lo recomendable es dejar la configuración por defecto.

Para acceder a está opción damos clic en “Configuración” y buscamos la opción “URL Rewriting”, en cuestión de segundos se nos abrirá una nueva pestaña donde podremos colocar los parámetros a reescribir.

En el caso de que tu URL sea dominio.com/inicio?s=34 el parámetro que deberás escribir dentro del cuadro será s. Haciendo esto todas las URL del parámetro s aparecerán en el informe final de la siguiente manera dominio.com/inicio.

En la pestaña “test” que aparece en la parte superior derecha podrás ver cual será el cambio que realizará la herramienta en las URLs con parámetros que introduzcas.

En esta misma ventana, también encontramos la pestaña “Options” la cual nos permitirá hacer que todos los enlaces que aparezcan en el informe final estén escritos en minúsculas haciendo que sea más fácil su interpretación.

Por último, tenemos la pestaña “Regex Replace” donde podemos reescribir varios enlaces con una configuración más avanzado. Solo las personas con conocimientos avanzados en SEO deberán modificar las opciones por defecto que vienen en esta pestaña.

Funciones Include y Exclude

Si estás analizando un dominio con demasiadas URLs esta función se convertirá en una de tus favoritas, ya que te permitirá segmentar el rastreo de las URLs de un proyecto, permitiéndote enfocarte en las partes más importantes dejando de lado aquellas que no son relevantes para tus objetivos.

Para acceder a las opciones es necesario ir a la pestaña de “Configuración” y dar clic en “Include” o “Exclude” (son opciones separadas), al hacerlo se nos abrirá un cuadro de texto donde podremos ir añadiendo los parámetros o carpetas que deseamos o no, añadir en el rastreo.

Para incluir o excluir es necesario agregar * justo antes e inmediatamente después de la carpeta o parámetro que nos interesa. Por ejemplo, si tenemos página dominio.com/?blog= en el cuadro blanco añadiremos *?blog=*. De este modo, todos los enlaces que contengan este parámetro no serán encontrados por la herramienta o, por el contrario, si elegimos la opción “Include” serán detectados.

La herramienta “Exclude” puede ser de mucha utilidad para eliminar los enlaces que tenga nuestro sitio web hacía las redes sociales, basta con escribir *Instagram.com* o *linkedin.com* en el cuadro blanco.

Esto nos servirá para tener un informe libre de URLs de redes sociales (que no nos sirven) y también para aumentar la velocidad de rastreo y evitar que se ralentice la herramienta.

Si quieres conocer más de esta función te invitamos a hacer clic en la leyenda “User Guide” que te llevará a el portal oficial de Screaming Frog, donde podrás encontrar más información relevante sobre el tema.

La opción Speed para mejorar la velocidad de rastreo

Screaming Frog es un software muy bueno que proporciona información muy completa sobre las URLs de una web, pero en ocasiones se puede ver lento por la cantidad de información que analiza.

Esta situación se ve agudizada cuando se realiza el análisis de un sitio web con problemas de carga o que no soporta múltiples visitas a la vez. Si ese es el caso, la opción “Speed” te será de mucha ayuda, ya que te permitirá indicarle al software la velocidad con la que debe realizar el rastro del dominio

 

 

Para acceder a esta herramienta es necesario que vayas al apartado de “configuración” y posteriormente selecciones la pestaña que dice “Speed.

En segundos te aparecerá una pantalla pequeña en la que podrás modificar el número máximo de tareas en las que trabajará la herramienta simultáneamente. Para solucionar el problema de la velocidad de rastreo deberás cambiar el número del apartado “Max Threads” a 5.

En el apartado de abajo “Limit URI/s” podrás modificar el número de URLs que Screaming Frog rastrea por segundo. Por lo general indicarle de 2 a 5 links por segundo será suficiente para agilizarlo.

Opción User-Agent

Para acceder a está opción es necesario dar clic en “Configuración” y seleccionamos User-Agent.

Al entrar se nos abrirá una nueva ventana donde podremos seleccionar el comportamiento de las “arañas de rastreo” que queramos, se puede hacer uso del bot de Google, Bing o cualquier otro bot de buscador.

En esta configuración siempre tendremos por defecto el Screaming Frog bot, pero si quieres modificarlo encontrarás una gran gama de ideas.

NOTA: Para que esta opción funcione no debes deshabilitar los bots en tu archivo robots.txt, ya que si lo haces le estarás negando el acceso y no obtendrás ningún resultado.

¿Cómo realizar un rastreo específico y obtener información personalizada?

Gracias a la función Custom-Search podrás acceder a la opción de filtrado de URLs que te permitirán separar los enlaces que desees de otros basándose en parte del código fuente, o en palabras específicas.

Para acceder a esta opción deberás dar clic en “Configuración”, posteriormente seleccionarás la leyenda “Custom” y optarás por “Search”.

De este modo, podrás hacer un rastreo únicamente de las URLs que son importantes para ti y separarlas del resto. Una vez finalizado el proceso podrás encontrar todas las URLs con el código o la palabra que elegiste en la pestaña “Custom”.

De igual manera, seleccionado “Extraction” en lugar de la opción “Search” podremos extraer todo el contenido que queramos de las URLs, siempre y cuando se encuentre dentro del código HTML de la página.

Para lograrlo existen muchas rutas (cada una corresponde a un tipo de elemento diferente). Gracias a estas funciones tenemos la posibilidad de encontrar nombres de productos o las migajas de pan que a veces se encuentran dentro de los enlaces del sitio web.

Eligiendo los modos de rastreo

Imagen 7

Screaming Frog es una de las herramientas más completas del mercado en cuanto a análisis SEO On Page se refiere. Por esta razón, no es de extrañar que incluya diferentes modos de rastreo, cada uno enfocado a los diferentes tipos de web que existen.

Para acceder a los modos de rastreo es necesario colocarse en el menú principal que se encuentra en la parte superior de la interfaz y seleccionar la opción “Mode”, donde se nos abrirán las 3 opciones siguientes:

  • Spider: En esta opción el software comenzará a rastrear todos los enlaces internos que encuentre en nuestra web.
  • List: Al activar este modo, la herramienta analizará todas las URLs que le enviemos manualmente, lo que resulta de gran ayuda si queremos encontrar errores en los enlaces que enviamos a Google (sitemap.xml).
  • SERP: Para activar este modo necesitamos cargar previamente un documento CSV que contenga aquellos enlaces que queramos analizar. El resultado que nos mostrará serán los title y las metadecription de cada una de las URL.

Entendiendo los resultados

 

 

Ahora que ya realizamos la configuración inicial estás listo para empezar a analizar tu sitio web, es hora de dar clic en “Start”.

Al hacerlo notarás como en segundos arroja los primeros resultados. El tiempo de este proceso dependerá del número de páginas que contiene el dominio que estás analizando, así que si se trata de una web muy grande deberás buscar algo en que distraerte.

En cuanto termine de realizar el análisis notarás que las pestañas que se encuentran debajo del menú principal se han llenado de información, la cual desglosaremos sección por sección más adelante.

Notarás que el cuadro grande blanco que antes estaba vacío se ha llenado de información sobre tu sitio web.

Pestaña Internal

Al terminar de realizar el análisis de nuestro sitio web, accederemos directamente a la ventana internal (por defecto), en la que encontraremos todas las URLs a las que ha podido acceder el software (dependiendo del archivo robot.txt) con información relevante como el Status Code (errores).

Además, también se encuentran los link canonical, los meta robots, el title, la descripción, los H1 y H2, el número de palabras que contiene cada página, el tamaño de la página, la profundidad, el text ratio, los enlaces internos entrantes con los que cuentan y otro tipo de información que te ayudará a detectar problemas u oportunidades de optimización.

En la barra derecha tendremos la oportunidad de acceder directamente a todos los elementos que resultaron del análisis de nuestro sitio web. Si damos clic en alguna de esas opciones se nos mostrarán todas las URLs que cumplan con lo seleccionado.

Para acceder a los Inlinks, y Outlinks deberás dar clic en las pestañas que se encuentran en el menú inferior de la interfaz. Ahí mismo también podrás encontrar información sobre las imágenes de la página y como aparece en los resultados de búsqueda de Google.

Obviamente tanta información es muy difícil de analizar dentro de la herramienta, para hacerlo más fácil da clic contrario en la interfaz del programa y selecciona la opción “Export”, posteriormente deberás elegir qué tipo de información quieres descargar.

Pestaña External

En esta pestaña encontrarás cualquier enlace externo que tengamos colocado en las páginas analizadas por la herramienta.

Para acceder a está pestaña solo debes volver al menú principal y dar clic en la leyenda “External”. En segundos tendrás toda la información a tu disposición.

Del lado de la derecha, podrás seleccionar a través de filtros la información que necesitas, de manera directa y rápida.

Por lo general, es importante verificar que nuestros enlaces externos generen un código 200 (no errores) y no un código 404 (error), si detectas alguna con este último, es importante que la elimines, la cambies o le apliques una redirección 301 para no afectar la optimización SEO de tu web.

Pestaña Protocolo

De igual manera, necesitamos regresar al menú general y dar clic en la pestaña “Protocolo”.

Una vez ahí se nos mostrarán las direcciones que utilizan el protocolo HTTP y las que usan el protocolo HTTPS separadas entre sí.

La recomendación para realizar este análisis es que no permitas que la herramienta siga los enlaces externos, ya que esto puede generar que tus resultados salgan mezclados haciendo que el análisis sea más complicado y tedioso.

Es importante verificar que nuestro sitio web solo contenga URLs de un protocolo (de preferencia HTTPS), ya que de lo contrario se podrían generar problemas graves de contenido duplicado, lo que terminaría por afectar tus posiciones en Google.

Pestaña Response Codes

Para acceder a esta pestaña regresamos al menú principal y hacemos clic en la pestaña “Response Codes”.

Una vez ahí tendremos acceso a los datos más sobre los enlaces rotos que existen en nuestro sitio web. Esta pestaña es muy importante para mejorar el SEO, ya que los enlaces con error 404 pueden generar hasta penalizaciones por parte de Google.

El código aceptable debe ser 200 (no errores) o 301 (redirección), siempre y cuando nos sean redirecciones que ralenticen tu sitio web. En caso contrario, deberás de resolver los problemas de inmediato.

Pestaña URI

Recuerda que uno de los factores de posicionamiento más importantes para Google es la “lógica de URLs”. En está pestaña encontrarás la información necesaria para cumplir con este requerimiento, ya que te ofrece una visión general de la escritura de cada uno de los enlaces de tu web.

En el sidebar de la derecha encontrarás los atajos hacía los diferentes problemas que pueden tener tus URLs, al dar clic en ellos accederás a todas las URLs que padecen problemas, algunos de los más comunes son:

  • Parameter: Como su nombre lo indica se trata de los links que se estructuran de parámetros y no de palabras.
  • Uppercase: Son direcciones que tienen palabras en mayúsculas.
  • Underscores: Direcciones que tiene el guion bajo en lugar del guion normal.
  • Duplicate: Encuentra diferentes páginas con la misma dirección.
  • NON ASCII Characters: Detecta cualquier URL que se formule con símbolos diferentes y muy poco comunes.
  • Over 115 Characters: Nos muestra los links más largos de nuestra web, por lo genera tiene 116 o más símbolos.

Es importante que modifiques las URLs que tengan problemas para hacerlas más “amigables” hacía Google. Eso sí, no te olvides de hacer una redirección 301 para evitar que se creé una URL con error 404.

Pestaña Page Titles

En esta pestaña encontraremos la información más relevante sobre la etiqueta Title que debe contener cada una de las páginas que conformen nuestro sitio web.

Para acceder a esta pestaña, regresamos al menú y damos clic en la leyenda “Page Titles”.

Los errores que nos detecta Screaming Frog con respecto al título son los siguientes: Las páginas sin título, la duplicidad, la longitud (con más de 65 caracteres), los títulos con menos de 30 caracteres, los títulos que son iguales al H1, entre otros errores que debes solucionar cuanto antes.

Este es un factor es fundamental para el posicionamiento web, ya que le da una idea a Google de lo que tratará el texto. De igual manera, al modificarlo recuerda mantener en él la keyword principal para la que se trata de posicionar la página.

Pestaña Meta Description

Accedemos a esta pestaña haciendo clic en el menú, para ser exactos en el apartado con la leyenda “Meta Description”.

Esta pestaña nos dará información precisa sobre la descripción de cada una de las URLs que conforman nuestro dominio.

Detectará algunos errores relevantes como: Las páginas que no contienen descripción, las páginas que tienen una descripción duplicada, las que tiene una descripción por encima de 156 caracteres, las que tienen una descripción por debajo de 70 caracteres, entre otros datos importantes.

Nota: Desde hace algún tiempo las descripciones no son un factor de posicionamiento para Google, pero si es importante que las contenga cada página porque ayudan a aumentar el CTR de manera orgánica.

Pestaña H1 y H2

En esta sección encontraremos toda la información pertinente a los H1 y H2 que contiene cada una de las páginas que existen en nuestro sitio web.

Nos ayudará a detectar errores como: las páginas que no contienen las etiquetas, las que usan unos h1 y h2 duplicados o las que tienen una extensión mayor a los 70 caracteres.

Pestaña Images

En este apartado encontraremos la información más relevante sobre las imágenes que estamos usando en cada una de las páginas de nuestro sitio web.

Hay que recordar que las imágenes son importantes por dos razones:

  • Le brindan un “descanso” al lector a la hora de leer.
  • Refuerzan el contenido y le dan credibilidad al trabajo.

En este apartado Screaming Frog nos ayuda a encontrar errores como: las imágenes que tienen un peso mayor a los 100 kb, las imágenes que no contienen Alt Text y las que tienen un ALT text mayor a los 100 caracteres.

Pestaña Directives

En esta sección de nuestra web tendremos acceso a trozos de código especiales que podemos estar usando, incluso sin saberlo.

Las principales etiquetas que encontramos son: Index/No index, Follow/No follow, Next/Prev, Canonicalizadas y Canonical.

Cada una de estás etiquetas debe ser colocada de manera manual con el objetivo de optimizar el SEO de nuestro sitio web. Si no sabes para que sirven lo mejor es que no las coloques, porque podrían generarte graves problemas de contenido duplicado o bloqueo de contenido.

Menú Superior

A simple vista puede que no lo encuentres, pero este menú se encuentra oculto entre el menú principal y los resultados del análisis

En la parte superior del sidebar de Screaming Frog para ser exactos y brinda una visión general de la arquitectura web que estamos implementando en nuestro proyecto.

Sección Site Structure

Al hace clic en esta pestaña encontraremos la información más relevante sobre el número de clics (empezando por el home) que tienen que dar los usuarios para llegar a cada una de las URLs que hemos analizado.

Es importante que la mayoría de URLs (por lo menos las que están posicionando en Google) se encuentren a 3 clics de distancia, porque de este modo se aprovecha mejor el crawl budget.

Crea tu propio reporte

 

Como puedes ver la información que puedes recopilar en la herramienta Screaming Frog es de gran utilidad para diseñar estrategias a nivel SEO On Page, las cuales te permitirán mejorar tus posiciones en Google.

Eso sí, antes de realizar cualquier análisis deberás exportar la información a archivos de Excel, ya que la interfaz del software no es fácil de manejar y podrías tener muchos problemas.

Para ello deberás buscar en el menú principal de la herramienta la opción “Bulk Export” y seleccionar el apartado que contenga la información que estás buscando.

El verdadero reto de Screaming Frog

El software es verdaderamente potente, nos ofrece una cantidad desbordada de información que nos ayudará a mejorar todos los aspectos del trabajo SEO de nuestro sitio.

Por lo cual, el verdadero reto de esta herramienta no es encontrar ni procesar los datos de nuestra web, sino tener la capacidad para entenderla y tomar las decisiones correctas que nos encaminen al primer puesto en Google.

Para lograrlo se necesitan muchos conocimientos SEO, razón por la cual te invitamos a que sigas revisando nuestro blog, donde encontrarás los mejores tutoriales de herramientas SEO del momento y una que otra estrategia interesante.

Y no te olvides de dejar tu comentario para llevar el debate SEO a otro nivel. ¡Hasta la próxima!

Deja un comentario