Dado un site web podemos descargarnos su código a local para poder realizar búsquedas de variables y revisión de este de forma cómoda. Vamos a ver como hacerlo con los comandos de bash: wget y grep.
#Con el siguiente comando descargamos el front end wget -r -k https://hack.me # -r descargará de forma recursiva el contenido # -k descargará todos los recursos necesarios y los enlazará de forma local para poder posteriormente hacer búsquedas sobre la propia descarga #Después podemos ejecutar búsquedas sobre variables concretas o cadenas de texto egrep -Ri --color --include=*.{html,htm} "method='post'" ; egrep -Ri --color "(XSS|XXE|MD5|SHA1|hash|cuida|peligr|contrase|passw|pwd|keystore|keychain|encrypt|encripta|cifrar|cifrad|temporal|provisional|hack|cve|vulnera|secret|cambiar|revis)" ; #Buscar determinados tipos de archivo find . -type f -iregex ".*\.\(zip\|pdf\|xlsx\|xls\|doc\|docx\|mp4\)"