Backup sin acceso a db

Iniciado por Necro, 9 Marzo 2010, 18:11 PM

0 Miembros y 1 Visitante están viendo este tema.

Necro

Buenas, la historia es mas o menos así: tenemos un foro en forumer.com (es phpbb2) , desde hace 3 años y el servicio es malisimo, crashea a cada rato y es muy poco configurable, no se le puede agregar nada, queremos irnos de ahí pero el staff no larga los datos, no se puede hacer backup de ninguna forma y es una lastima pq hay muchos posts interesantes. quería ver si existe alguna herramienta que entre via web post por post y vaya filtrando los datos como para armar una base de datos aunque sea simple cruzando datos autor del post y contenido.
Es medio complicado porque habría q adaptarla al problema en cuestión pero seria interesante encontrar algo hecho. sino voy a tengo q programarla desde cero y no tengo tiempo :(
existe esto o no?

desde ya muchas gracias.


^Tifa^

Que pena que estes pasando por esa....

Mira, si el servidor remoto en cuestion es un servidor Linux, puedes logearte por ssh ya sea mediante Putty y intentar ver si te va el comando:

mysqldump

:P  Con esta herramienta puedes hacer un backup de las base de datos o base de dato que tu quieras, pero hay que ver si te es permitido ejecutar dicho comando primero.

En caso que no, si tu servidor es Linux existe la herramienta llamada wget que te permite guardar o descargar un website completo, solo hay que ver los parametros que accepta (que ahora no recuerdo) y te baja todas las paginas de un website. Ya con las paginas guardadas, la cuestion seria ver como se mete toda esa info en un archivo excel para entonces montarlo de forma automatica al motor a una tabla CVS por el momento...

Aunque te queda mucho mas facil ver si el comando que te mencione funciona primero.

Necro

gracias por responder tan rápido, trate con las malas artes pero lo único a lo que el router o firewall deja paso es al puerto 80 y corre un iis sin vulnerabilidades conocidas :(


jdc

Eres administrador o algo del foro? Por lo que entiendo eres un usuario como yo aqui xD

Lo que pienso que quieres hacer es clonar el foro.

^Tifa^

IIS? es un ser Windows entonces  :-X 

Ahi anda mas chungo la cosa  :D instalate wget en tu PC y bajate toda la web completa remota en tu PC. Ahora tendras que organizar todo para un excel y asi poder cargarlo en la DB.

Necro

Cita de: ^TiFa^ en  9 Marzo 2010, 19:26 PM
IIS? es un ser Windows entonces  :-X 

Ahi anda mas chungo la cosa  :D instalate wget en tu PC y bajate toda la web completa remota en tu PC. Ahora tendras que organizar todo para un excel y asi poder cargarlo en la DB.

claro... 3000 posts a mano, con 20 respuestas cada uno en promedio, o sea que tengo que repetir copiar/pegar 3000x20 = 60.000 veces, de aca al 2030 mas o menos termino, ya empiezo, gracias por la ayuda...

Cita de: ‭ en  9 Marzo 2010, 19:11 PM
Eres administrador o algo del foro? Por lo que entiendo eres un usuario como yo aqui xD
Lo que pienso que quieres hacer es clonar el foro.

soy usuario tb, pero estamos viendo entre todos como hacemos, los mod tambien piensan en migrar, yo los ayudo. igual no es relevante.


^Tifa^

Citarclaro... 3000 posts a mano, con 20 respuestas cada uno en promedio, o sea que tengo que repetir copiar/pegar 3000x20 = 60.000 veces, de aca al 2030 mas o menos termino, ya empiezo, gracias por la ayuda...

Lo siento, no te lo decia con intencion de ponertelo imposible... a lo mejor existe una herramienta en internet capaz de organizarte todo lo que baje de manera que solo tengas que cargar el documento en la base de datos con 1 linea de consulta SQL. Pero particularmente, yo no conozca esta herramienta.....

Yo solo te di una idea que podias descargar todo el website con la herramienta wget en tu Windows, y asi con ayuda de otro mediante un codigo programado separar los parrafos por espacio o coma o punto o algo.. y eso ver como se guarda en un documento excel de forma organizada y entonces cargar ese documento en el motor de MySQL.

Lo siento, se que no es la manera mas facil o posible... pero particularmente, al ver lo limitado que estas (no eres admin no tienes acceso, ni privilegios en ese servidor) es poco lo que puedo recomendarte yo, pero si otro usuario tiene una mejor idea bienvenida sea.

jdc

Usa php y mysql, con la función file_get_contents() y fíjate en la estructura de las urls, por ejemplo

index.php?id=1

Con un for incrementas de 1 a 3.000 y guardas en la base de datos las páginas completas en local con la función de arriba.

Te ayudaría mas pero sigo pensando que no es para algo derecho.

Un saludo