Duda sobre procedimiento cuando buscamos vulns web

Iniciado por Debci, 28 Julio 2010, 15:31 PM

0 Miembros y 1 Visitante están viendo este tema.


Darioxhcx

aunque nadie recomiende scanners , yo te recomiendaria que al menos uses el crawler de acunetix , es el mejor , teniendo en cuenta que no consume recursos como ese ue es por fuerza bruta y ensima echo en java , y saca buenos resultados
despues bueno,, no lei lo que dijeron los otros users con detenimiento , pero ya te habran dicho casi todo ;D

un link que te puede servir

http://projects.webappsec.org/Threat-Classification-Enumeration-View

saludos

Littlehorse

Utilizar o no utilizar escáneres depende principalmente del objetivo de la auditoria. Mas alla que un escáner no puede competir contra la creatividad de una persona, pueden ser útiles para comprobar que no estas dando nada por sentado. Aclarar que con objetivo me refiero a lo que se quiere lograr, mas alla de la buena u mala intención que puede haber en ello.

Ahora bien, si la idea es intentar pasar lo mas desapercibido posible, un escáner es la ultima opción. Mas allá de la flexibilidad que pueda proveer algún software en particular, siempre llaman la atención mas de lo que deberían.

Saludos
An expert is a man who has made all the mistakes which can be made, in a very narrow field.

Debci

Ahora mi pregunta es esta:

Cuando analizan un posible vector de ataque como determinan, en el caso de XSS por ejemplo, cual es el filtro que esta utilizando?

Son todos los filtros, de una manera u otra bypasseables?


Saludos

Erfiug

Cita de: Debci en 28 Julio 2010, 19:40 PM
Ahora mi pregunta es esta:

Cuando analizan un posible vector de ataque como determinan, en el caso de XSS por ejemplo, cual es el filtro que esta utilizando?
Mirando el código fuente.. o probando con distintos inputs si no dispones de este.
Cita de: Debci en 28 Julio 2010, 19:40 PM
Son todos los filtros, de una manera u otra bypasseables?
Esto es equivalente a preguntar si todas las webs son vulnerables a ataques XSS

braulio--

Otra cosa útil es usar :
wget -r http://web.com
Que te descarga todos los archivos de la web (que estén enlazados en alguna parte de la web accesible) y así puedes observar como van los directorios.

Debci

pero de que te vale ver el php interpretado a html si eso ya lo puedes hacer en directo con el browser?

Saludos

braulio--

porque te descarga directamente toda la jerarquía de directorios de modo que lo puedas ver con el explorador de archivos de una manera más sencilla.