URLextractor es una herramienta de Information gathering & reconnaissance para sitios webs. Muestra información sobre IP, DNS, Whois y muchos más!
- ¿Quieres iniciar en este mundo de la Information gathering? Intenta con Footprinting de Sitios Web (Guía del Principiante)
Tabla de Contenido
1. Caracteristicas
- Información de IP y alojamiento como ciudad y país (usando FreegeoIP)
- Servidores DNS (usando dig)
- ASN, rango de red, nombre de ISP (usando RISwhois)
- Prueba de equilibrador de carga
- Whois por abuso de correo (usando Spamcop)
- Archivo PAC (Proxy Auto Configuration)
- Compara hashes a código de diferencia
- robots.txt (buscando recursivamente cosas ocultas)
- Código fuente (buscando contraseñas y usuarios)
- Enlaces externos (frames de otros sitios web)
- Directorio FUZZ (como Dirbuster y Wfuzz – usando Dirbuster, lista de directorios)
- URLvoid API: comprueba el page rank de Google, de Alexa y posibles listas negras
- Proporciona enlaces útiles en otros sitios web para correlacionar con IP/ASN
- Opción para abrir TODOS los resultados en el navegador al final
2. Instalación
Para usar este script de Bash, ejecutamos el siguiente comando:
git clone https://github.com/eschultze/URLextractor.git
cd URLextractor
chmod +x extractor.sh
También nos hará falta instalar algunos requirimientos listados en el archivo requirements.
Probado en Kali light mini Y OSX 10.11.3:
sudo apt-get install bc curl dnsutils libxml2-utils whois md5sha1sum lynx openssl -y
Y por último, podemos modificar el archivo de configuración:
CURL_TIMEOUT=15 #timeout in --connect-timeout
CURL_UA=Mozilla #user-agent (keep it simple)
INTERNAL=NO #YES OR NO (show internal network info)
URLVOID_KEY=your_API_key #using API from http://www.urlvoid.com/
FUZZ_LIMIT=10 #how many lines it will read from fuzz file
OPEN_TARGET_URLS=NO #open found URLs at the end of script
OPEN_EXTERNAL_LINKS=NO #open external links (frames) at the end of script
FIRST_TIME=YES #if first time check for dependecies
3. Uso de URLextractor
Para empezar a extraer información clave de un determinado sitio web, utilizando URLextractor, escribimos en la terminal lo siguiente:
./extractor <URL>
Ejemplo:
./extractor https://esgeeks.com/
¿Te ha gustado este artículo? Sígue este blog en su fanpage de Facebook, Twitter, Instagram y/o YouTube para que no te pierdas del mejor contenido informático y hacking!