Extractor Web

Iniciado por traviatØ, 12 Febrero 2009, 03:46 AM

0 Miembros y 1 Visitante están viendo este tema.

traviatØ

Hola 1 salu2,  :-( sucede que estaba buscando la forma de extraer o mejor dicho guardar las paginas de una pagina web, y bueno me preguntaba si alguien sabe x casualidad como hacer mas o menos para guardar todas las paginas, es decir me ahorraria la tarea de hacer click en cada link de dicha pagina para luego darle guardar como etc etc, entonces si quisiera hacerlo de alguna forma automatica como seria  :huh: alguna idea  :huh: , seria extraer a las paginas de la web limitandose a solo sus paginas internas, x ejemplo si dentro hay un link de otra web diferente bueno el link de esa web si no lo guardaria, y otra cosa es para guardar las paginas que estan dentro de las paginas y asi sucesivamente hasta guardar toda la web (una), no c si me explico, alguna idea  :huh: :huh: :huh: salu2s
                     

Rudy21

se me ocurre esto

primero

meter el code de la pagina en un textbox

ahi

meter en una variable la URL de la web

y en el txtbox hacer un mid y un instr con <a href=" para sacar los enlaces

una vez sacados TODOS LOS ENLACES

ya de ahi sacas  los que empiecen con la variable de la URL de la web

y todos los demas que no tenggan http

(para sacar los de la misma web y los que son pagina2.php etc.. etc..)

y despues

eso meterlo en un txt o igual otro textbox

y que automaticamente

obtenga el code de esas URLS y las guarde en un archivo.html

:D

es lo que se me ocurre

intenta hacer eso ya tienes todos los pasos si tienes mas dudas me dices y te ayudo a hacer el soft

pero intenta hacerlo ok??

Salu2


traviatØ

vale, gracias por responder, luego posteo avances salu2s  ;)