Dominios expirados con SB y Expired domain finder

Cristian
Cristian

Hay que seguir luchando queridos lectores!

Cristian por aquí otra vez. En esta ocasión os traigo una herramienta para buscar dominios expirados bastante interesante. Esta herramienta trabaja sobre Scrapebox y es un addon de pago y cuesta 47$ dólares. Este addon lleva por nombre Expired Domain Finder y puedes observar un post que hice con referencia aquí.

No explicaré como se compra y ni como instala (si se le puede llamar instalación), pero es algo sencillísimo de realizar.

Este addon tiene las funcionalidades siguientes (primordialmente):

  • Buscar dominios expirados.
  • Búsqueda de datos como Moz, Majestic, Wayback y otros.
  • Conseguir el contenido de un lugar en Archive.org.

Explorando Expired Domain Finder

Tienes que irte al menú primordial->Premium Plugins y seleccionar Expired Domain Finder y se te va a abrir un display como este.

Voy a seguir a argumentar lo que para mi es lo mas importante.

  1. Menú Início.
  2. Menú de ejecución.
  3. Información general.

Menú Início

Aquí tendremos las opciones siguientes:

  • Archivo
    • Load
      • Load URLs to deep crawl from archivo: esta opción nos deja cargar un catálogo de URLs donde el addon procurará los dominios expirados.
      • Load URLs to deep crawl from clipboard: si has copiado una dirección de Internet en la memoria, con esta opción puedes cargar esa dirección de Internet en el addon.
      • Load URLs to deep crawl from scrapebox: Si tienes una lista de URLs en Scrapebox (URLs harvested) con esta alternativa cargas estas URLs en el addon
      • Load list of domains to check and get metrics from archivo, clipboard y scrapebox: marcha afín a las 3 opciones precedentes pero con esta alternativa lo que harás es conseguir las métricas para las listas de URLs que agregues.
    • Load snapshot: Esta herramienta tiene la opcion de almacenar snapshots del trabajo que esta haciendo. piensa que estas pasando una colosal web y Scrapebox lo tienes instalado en tu PC personal y ahora estás múltiples horas haciendo un trabajo, sencillamente guardas un snapshot y después puedes proseguir haciendo un trabajo cargando dicho snapshot con esta opción.
    • Save snapshot: Almacena un snapshot de lo que ha trabajado.
    • Exit: Cerrar el addon.

  • Metrics o metricas: En esta alternativa básicamente habilitas que métricas deseas que la herramienta consiga en el momento en que halle un dominio expirado, no posee ciencia así que no me detendré a argumentar.
  • Options: aquí se configuran unos cuantos cosas atrayentes.
    • Threads and timeout: se utiliza para modificar cuantos threads deseas que se ejecuten a la vez. Ciertos sitios bloquean en el momento en que ven demasiadas solicitudes, así que si no tienes idea de lo que haces, entre 5 y diez es buen numero. Yo aquí he probado hasta 20 threads, timeout de 5s y sin inconvenientes. Si algún server te inhabilita por varios threads solo baja la cantidad de hilos. Aah, no estoy utilizando proxies!

La próxima opción es Crawler Settings, a esta puedes entrar desde Menu->Options->Crawler Settings, o desde la pantalla inicial donde pone Crawl depth (está en azul).


Según lo que harás esto es primordial de determinar ya que define que tan “profundo” va a comprobar los sitios, si por servirnos de un ejemplo escogemos la dirección de Internet de wikipedia que charla sobre algun tema veras que tiene decenas y decenas de links, ya que bien, si deep crawl level esta en 1, quiere decir que cogerá los links de esta dirección de Internet solamente, si esta en 2, va a elegir los links de esta pagina y los links de las paginas que prosiguió, si level es en 3, quiere decir que proseguirá los links de la dirección de Internet original, los links en esta y proseguirá los links de esta segunda pagina.
Entonces según la estrategia que se prosiga se utiliza de diferente forma, en el ejemplo que usaré aquí lo configuraré a nivel 5 o 6. Depende de que tan profundo lo hagas trabajar también se incrementará el tiempo de acabado, pero también hay más opciones de hallar más dominios expirados, ten en cuenta que, mientras más profundo sea, el crawler enviado a la temática elegida también se irá distanciando. Pero como te digo, en función del propósito y de que buscas, una opción es preferible que otra. La opcion “auto save results into the AutoSave Folder” se utiliza para programar que cada cierto tiempo vaya guardando lo que va encontrando, de esta manera si por A o B se detiene no perderás lo que había trabajado, así que sugiero que lo dejes activado.

  • La opcion “Do not crawl subdomains (default)” es para mencionarle si deseamos que rastree los subdominios, yo no lo uso.
  • La opcion “Crawl only same domain or subdomain” es para mencionarle que no se salga del dominio de en el que está, piensa que tienes www y sin www, y deseas que solo rastree en uno, déjalo desmarcado.
  • Y finalmente, Custom Useragent, este es el Useragent que empleará para emular desde un navegador «X» desde el que se efectúa la visita eludiendo así que ciertos sistemas anti-bots lo bloqueen.
  • SEOMoz Accounts: en esta parte configuras la o las APIs de MOZ que poseas para conseguir las métricas de ellos. Puedes modificar la cantidad que desees, solo ten en cuenta que en este momento tiene limite por mes. Yo en la mayoría de los casos empleo 2 cuentas. Si no tienes idea como conseguir las APIs solo tienes que googlear.
  • Majestic Account: exactamente la misma que Moz, puedes modificar tu API de Majestic para conseguir sus metricas.
  • Realtime Filter setup: esta alternativa es atrayente puesto que puedes filtrar los sitios en directo, o sea, a la medida que se va trabajando, y así sacar de tu lista en automático lo que no quieras. Lo único que tienes que llevar a cabo es añadir las cadenas de artículo de lo que quieres filtrar, así sea que contengan o no esa cadena de artículo, y activar la lista. Las demás opciones que aquí no explico, según mi opinión no son tan importantes, pero puedes revisarlas por si algo pudiese servirte.
  • Proxies: Esta alternativa es para determinar los proxies a utilizar, en la mayoría de las situaciones se puede emplear sin proxies, pero si los deseas emplear, esta es la opción para configurarlos. No lo voy a explicar por el hecho de que si estás por aquí, la utilización de proxies ahora debería ser algo básico para ti.
  • Archive.org Grabber: Esta alternativa es atrayente, puesto que nos deja conseguir el lugar desde Archive.org y va de sin dependencia, quiero decir que, no es requisito buscar dominios expirados para utilizarlo. Solo tienes que añadir el dominio que quieres rescatar y desde el momento (fecha) que deseas que consiga la info (la fecha del snapshot). Es sencillísimo de utilizar, así que no me detendré a ofrecer mas datos. Créeme, en el momento en que precisas sacar un lugar de archive.org esta función es realmente útil y te ahorra bastante tiempo.

Intentando encontrar dominios expirados

Realmente bien, pienso que esta es la parte que mas podría interesarte. Deseo aclarar que existen muchas maneras de buscar dominios expirados con este addon, voy a enseñar una fácil por cuestiones de tiempo, pero con algo de imaginación le vas a dar usos diferentes. Por mi parte, antes de comenzar este articulo me encontraba redactando acerca de un procedimiento para hallar dominios expirados con este addon pero me percaté que si no lo conocías, primero tenia que argumentar como utilizarlo, así que próximamente enseñare otro procedimiento, mantente pendiente del twitter de scrapebox.

Realmente bien, este procedimiento es sencillísimo y radica en escoger un lugar grande y con autoridad como Wikipedia, Xataka, www.hatsnews, gizmodo, etcétera. No siempre tienes que comenzar en la homepage, puedes seleccionar una dirección de Internet de interés como punto de inicio. Así que ve a esa web o dirección de Internet y cópiala al portapapeles.

Nota: Si deseas conseguir un dominio expirado con buenos links dofollow, asegurate de que el ubicación origien link a los sitios externos con dofollow, sino más bien, es muy posible que finalices encontrando un dominio expirado con buenos links pero nofollow.

Primero configura lo que vas a requerir, en mi caso solo solicito DA, Moz Rank y Wayback, esto lo ves en el menú Metrics…. escoge las que pienses que usarás.

Para el ejemplo voy a utilizar la página web “el androide libre” con unos 7 threads y crawl depth de 6 , así que iremos a configurarla en expired domain finder y ha dejarlo corriendo unas horas (no conozco el lugar lo bastante y no vaya a ser que me bloqueen por eso puse 7hilos) para poder ver si podemos encontrar algo, esta prueba se me de pasar por la cabeza, así que espero y de algún resultado jejeje.

Nota: Puedes tener mas de una instancia de scrapebox corriendo, asi que si tienes un óptimo pc y buena proporción de RAM, puedes tener múltiples instancias y asi explotar mejor el tiempo que se utiliza intentando encontrar.

Tras unas cuantas horas encontró ciertos dominios (69), mas abajo les comparto la lista con acción social. No obstante, en el momento en que acaba o lo paramos tiene unos cuantos funcionalidades atrayentes tambien, como el filtrado y exportar.

Si vas a “Filter” puedes filtrar la lista según las características que deseas del dominio, como su DA, top de alexa, # de backlinks, Moz rank, así como eliminar dominios que contengan o no contengan algunas expresiones, ojo, que esta acción es imposible deshacer, si pones un filtro no puedes regresar atrás.

Para exportar el catálogo haces click en “Export” y veras un display. Aquí puedes escoger exportar la lista como fichero de artículo, CSV o Excel, en relación a fin de que vayas a emplearlo, en mi caso, lo exportaré como excel para lograr compartirlo.

[sociallocker id=»637″]https://www.hablemosdeseo.net/wp-content/uploads/2019/10/dominios-expirados-elandroidelibre-20102019.xlsx[/sociallocker]

Y bueno, en lo que se refiere al trámite esto es todo, como ves es algo fácil pero necesita tiempo, en este momento lo que falta es contrarrestar que los dominios estén libres, esto lo puedes realizar con una búsqueda masiva de dominios en dondominio/masiva, y seguidamente contrastar sus métricas en ahrefs, semrush, o cualquier otra herramienta para cerciorarse de que el dominio está sano. Asimismo recuerda que tienes que ver el dominio en archive.org y cerciorarte de que esté limpio.

¿En que momento buscar dominios expirados con estos métodos?

En realidad puedes buscar un expirado por muchas causas, pero esta clase de procedimiento, el de emplear ahrefs, etcétera, para mi, tienes que emplearlos si:

  1. Tienes ordenadores encendidos a lo largo de bastante tiempo (como mi caso).
  2. En el momento en que deseas vender dominios expirados (por el hecho de que da igual la temática del dominio, lo importante es que sea bueno).
  3. En el momento en que el dominio expirado que buscas no te importa la temática.

¿Por que? debido a que son métodos con los que es difícil garantizar que vas a encontrar dominios de un tema en especifico (para eso sirve más el otro procedimiento que escribo). Si estas buscando un dominio expirado para un 301 o para un link fuerte este procedimiento puede conducir bastante tiempo a fin de que halles esa pepita de oro, y desde mi criterio, hay mejores maneras de como conseguir dominios de un tema especifico, región, métricas buenas, etcétera. pero eso irá en otro articulo a lo mejor.

Gracias por leerme,
Cualquier duda o pregunta dejala en los comentarios o en el conjunto de fb.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

scrapebox, tutobox, scrapebox hispano