Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Mensajes - WHK

#1911
Noticias / Re: Un ordenador que se auto-repara
15 Febrero 2013, 17:32 PM
jajajja siiiii eso mismo iba a decir, skynet o las makinas de matrix xDDD

muy interesante el proyecto, aver con que nucleo lo acompañan porque no conozco ningún sistema operativo que pueda trabajar con trozos de memoria independiente aunque supongo que eso va a necesitar un procesador mas potente de lo normal ya que todo va a estar descentralizado y por ende cada proceso va a tener que manipular la memoria por separado en ves de que hay un solo nucleo que maneje la memoria.

El dia en que se venda ese pc yo compraré uno :D
#1912
y yo que pensaba que nadie caia en esas cosas xD
#1913
Estaba revisando el sitemap de google.com y me di cuenta que hay un sitemap que apunta al listado de perfiles de google.. pero cual es el limite?

$ wget http://www.gstatic.com/s2/sitemaps/profiles-sitemap.xml

No hagan el intento de ver el xml desde el explorador porque es un archivo muy pesado y desestabilizará sus sistemas, usen wget para descargarlo.

$ cat -n profiles-sitemap.xml
Un total de 200003 Lineas, pero cada 4 lineas hay un archivo comprimido, por lo tanto:

200000 / 4 = 50000 archivos en total a descargar.

Descarguemos uno solo:
wget http://www.gstatic.com/s2/sitemaps/sitemap-00000-of-50000.gz

$ cat -n sitemap-00000-of-50000
Un total de 12871 Lineas, o sea perfiles por archivo.

Ahora, si sacamos la cuenta de la cantidad de lineas por la cantidad de archivos nos debería dar una idea de la cantidad de perfiles:
(50000 x 12871) = 643.550.000 perfiles de google en sitemap.

Ahora la pregunta... son todos?, si vemos la cantidad de archivos a descargar con listados de perfiles nos podemos dar cuenta que es una cifra muy simetrica, o sea que puede ser un límite de perfiles a mostrar o hubo mucha coincidencia.

Que opinan? hay mas?
#1914
Amigo, documentate sobre analisis forense... revisa el log de accesos de tu servidor y revisa las peticiones http para saber que hicieron antes de que la hackearan, si no hay nada entonces no creo que hayan entrado via web.

Saludos.
#1915
yo ni recuerdo como entrar xD hace pocos dias traté pero como no recordaba el user ni el pass lo cerré :P
#1916
Lo encontréee!!! por finnn!!!!

http://www.4shared.com/mp3/MP9ebmQ9/Michael_Bow_-_Love_And_Devotio.html

:D:D:D:D:D:D::D:D:::D::DD::D:D:D:D:D:DD:DD:D:D:D:D:D:D:D:D::D
#1917
GNU/Linux / Re: duda con wget
11 Enero 2013, 20:36 PM
Bueno ya lo resolví de la forma que planteé, los directorios pasan por variables y los files por pettys url, asi todos los directorios quedan guardados en un solo lado listos para ser borrados.

El lunes u otro dia subo el código a github.

Gracias y saludos.
#1918
GNU/Linux / Re: duda con wget
11 Enero 2013, 19:11 PM
pues lo que sucede es que estaba haciendo un script para hacer respaldo completo de un website sin utilizar la shell ni librerias de compresion.

la cosa es que las urls quedan masomenos asi...
http://ejemplo.com/backup.php/home/www/...

entonces el archivo php hace un listado por cada directorio donde estemos y los va descargando uno por uno hasta hacer el respaldo completo del sitio web tan solo con un archivo php utilizando una descarga recursiva.

el problema está que cuando llega a un directorio te crea por defecto un index.html con el contenido del indice de los archivos, luego cuando el respaldo está completo te das cuenta de que en cada directorio que supuestamente no tenía un index.html ahora si lo tiene con el indice de cada descarga y eso es un problema.

no puedo omitir los index.html porque a veces los servidores tienen un index.html pero quiero que se creen solo las carpetas y listo.

Lo que se me ocurre es hacer un unico indice gigante y que las rutas de las carpetas esten dentro del mismo indice principal, el problema es que lo enviaría via peticion get y me llenaría el directorio con archivos tipo index.php?dir=... , lo otro sería finalizar con un rm -rf index.php*

Lo que estoy intentando hacer es un respaldador de sitios webs hackeados, no todos tienen zip lib instalados y no todos tienen la shell habilitada para poder utilizar el comando tar y tampoco me tinca utilizar gz, por eso se me ocurrió hacer este script que te hace las backups con un wget recursivo a si mismo
#1919
tambien para ie9 y 10 como la falla de la captura del mouse en segundo plano.

como cualquier explorador debe tener sus fallas y descubrimientos, firsfox y chrome tambien los tiene, la diferencia es que si se encontraron dos fallas en un dia entonces se actualiza dos veces en ese dia, internet explorer debes esperar su actualización solo si actualizas windows, o sea, o actualizas todo o te jodes.

Igual puedes aplicar actualizaciones individuales pero enseñale eso a mi madre, en cambio firefox se actualiza solo y con un solo click sin afectar la integridad de tu sistema operativo.
#1920
No funciona con 'or'1=1 pero si funciona con ' or 1=1 -- '

Gracias por la info :)
podrias publicarlo en seclist.org tambien (sección full disclosure).