URLextractor Information Gathering de Sitios Web
URLextractor Information Gathering de Sitios Web

URLextractor: Information Gathering de Sitios Web

URLextractor es una herramienta de Information gathering & reconnaissance para sitios webs. Muestra información sobre IP, DNS, Whois y muchos más!

1. Caracteristicas

  • Información de IP y alojamiento como ciudad y país (usando FreegeoIP)
  • Servidores DNS (usando dig)
  • ASN, rango de red, nombre de ISP (usando RISwhois)
  • Prueba de equilibrador de carga
  • Whois por abuso de correo (usando Spamcop)
  • Archivo PAC (Proxy Auto Configuration)
  • Compara hashes a código de diferencia
  • robots.txt (buscando recursivamente cosas ocultas)
  • Código fuente (buscando contraseñas y usuarios)
  • Enlaces externos (frames de otros sitios web)
  • Directorio FUZZ (como Dirbuster y Wfuzz – usando Dirbuster, lista de directorios)
  • URLvoid API: comprueba el page rank de Google, de Alexa y posibles listas negras
  • Proporciona enlaces útiles en otros sitios web para correlacionar con IP/ASN
  • Opción para abrir TODOS los resultados en el navegador al final


2. Instalación

Para usar este script de Bash, ejecutamos el siguiente comando:

git clone https://github.com/eschultze/URLextractor.git
cd URLextractor
chmod +x extractor.sh
Instalar URLextractor en Linux
Instalar URLextractor en Linux

También nos hará falta instalar algunos requirimientos listados en el archivo requirements.

Probado en Kali light mini Y OSX 10.11.3:

sudo apt-get install bc curl dnsutils libxml2-utils whois md5sha1sum lynx openssl -y
Instalar requisitos de URLextractor
Instalar requisitos de URLextractor

Y por último, podemos modificar el archivo de configuración:

CURL_TIMEOUT=15 #timeout in --connect-timeout
CURL_UA=Mozilla #user-agent (keep it simple)
INTERNAL=NO #YES OR NO (show internal network info)
URLVOID_KEY=your_API_key #using API from http://www.urlvoid.com/
FUZZ_LIMIT=10 #how many lines it will read from fuzz file
OPEN_TARGET_URLS=NO #open found URLs at the end of script
OPEN_EXTERNAL_LINKS=NO #open external links (frames) at the end of script
FIRST_TIME=YES #if first time check for dependecies

3. Uso de URLextractor


Para empezar a extraer información clave de un determinado sitio web, utilizando URLextractor, escribimos en la terminal lo siguiente:

./extractor <URL>

Ejemplo:

./extractor https://esgeeks.com/
URL extractor de sitio web
URL extractor de sitio web
Information Gathering con URLextractor
Information Gathering con URLextractor

¿Te ha gustado este artículo? Sígue este blog en su fanpage de FacebookTwitterInstagram y/o YouTube para que no te pierdas del mejor contenido informático y hacking!

Mi Carro Close (×)

Tu carrito está vacío
Ver tienda