Alguna manera de ver los archivos que tiene una Web?

Iniciado por HJ ~, 5 Abril 2009, 22:47 PM

0 Miembros y 2 Visitantes están viendo este tema.

HJ ~

Hola.

Pues ahora me estaba preguntando si es posible saber cuales son los archivos que tiene un espacio Web, voy a poner un ejemplo.

Supongamos que yo quiero entrar a una Web llama www.tusitioweb.com, y se que hay un archivo de extensión .htm que ami me interesaría entrar para ver su contenido, es posible saber el listado de archivos que tiene esa Web?

Al igual que si quitamos el index a un sitio Web sale el listado de todos los archivos (Pero en este caso a todo el público) sería posible hacerlo? Si es así, cómo?

Gracias -

PD: Que alguien mueva el tema al subforo de esta sección, que no lo ví, gracias!

N1K0

Una carpeta web sin un archivo index te tendria que mostrar el listado de archivos en la carpeta siempre y cuando tenga los permisos adecuados, aunque tambien podes usar webcrawlers que van chekando links y asi accedes directamente al los archivos ahi otros que prueban directamente con paths predeterminados y segun si les tira un error 404(Not found) o 401(OK) es si existe o no... en fin hay montones de herramientas...

Saludos

HJ ~

Cita de: N1K0 en  5 Abril 2009, 22:57 PM
Una carpeta web sin un archivo index te tendria que mostrar el listado de archivos en la carpeta siempre y cuando tenga los permisos adecuados, aunque tambien podes usar webcrawlers que van chekando links y asi accedes directamente al los archivos ahi otros que prueban directamente con paths predeterminados y segun si les tira un error 404(Not found) o 401(OK) es si existe o no... en fin hay montones de herramientas...

Saludos
Entiendo, y podrías decirme alguna herramienta que se parezca a lo que yo estoy buscando?

Muchísimas gracias

N1K0

Krawlsite para linux
y para windows con el teleport pro te basta y sobra

Saludos

braulio--


Data Seek3r

El wget? que tiene que ver?, aca estaria perfecto un crawler, o un buen dork. ;)

braulio--

Cita de: Data Seek3r en 16 Abril 2009, 10:09 AM
El wget? que tiene que ver?, aca estaria perfecto un crawler, o un buen dork. ;)
Tiene que ver porque si al wget le pones la opcion -r funciona como crawler. Hara poco me di cuenta xD

Data Seek3r

Claro, pero es obvio que si tiene acceso a ejecutar un comando como wget, en el servidor, tiene acceso a ls :P

braulio--

Cita de: Data Seek3r en 16 Abril 2009, 14:11 PM
Claro, pero es obvio que si tiene acceso a ejecutar un comando como wget, en el servidor, tiene acceso a ls :P
Pero no tiene que ejecutarlo en el servidor, si lo ejecuta en su ordenador tambien se descargan los archivos de la web.

Data Seek3r

mmm no creo que pueda descubrir un path bastante importante con un wget. Por ejemplo si lo que busca es 'administrationof911' el wget -r no lo encontrara a menos que tenga una imagen que tenga src en ese dir, no es asi?