a ver, se puede uno descargar una página web?
Me refiero a ,por ejemplo, un blog que se organiza así:
*entradas de enero
*entradas de febrero
*entradas de marzo
y que dentro de cada mes haya 6 artículos.
¿eso se puede es cargar y guardar en un pen drive?
¿alguien lo ha hecho y ha funcionado?
Pues en blogger tienes la opción de backup, no se de que blog estais hablando.
:https://support.google.com/blogger/answer/97416?hl=en
hola valencia456, puedes ver la documentación asociada a wget. saludos
Cita de: Gh057 en 19 Mayo 2014, 16:32 PM
hola valencia456, puedes ver la documentación asociada a wget. saludos
como?
buscando... :¬¬
->http://es.wikipedia.org/wiki/GNU_Wget
.>http://www.gnu.org/software/wget/
->http://gnuwin32.sourceforge.net/packages/wget.htm
saludos
que no se lo que es wget.
justamente por ello! lee... no miraste ni siquiera el primer link? :¬¬
está en español y te explica que es wget... pero te lo resumo diciendo "...es una herramienta libre que permite la descarga de contenido desde servidores web..." (wiki)
con lo cual, dicha herramienta responde a tu consulta.
google no muerde! XD
un cordial saludo.
Si se puede, pero de una en una.
En plan: click derecho > guardar como... > Página web completa
(http://oi34.tinypic.com/34iofo6.jpg)
.
Cita de: manuelbaceiredo en 21 Mayo 2014, 21:43 PM
Si se puede, pero de una en una.
En plan: click derecho > guardar como... > Página web completa
WebCrawler.
http://es.wikipedia.org/wiki/Ara%C3%B1a_web
HTTrack WebSite Copier, es para descarga webs completas.
http://www.httrack.com/page/2/ (http://www.httrack.com/page/2/)
vipamon, hace meses la usé y me hizo una *****.
¿a ti te funciona?
¿mejor con webs sencilitas?
Cita de: Saberuneko en 22 Mayo 2014, 00:08 AM
WebCrawler.
http://es.wikipedia.org/wiki/Ara%C3%B1a_web
Ten en cuenta esto: (http://www.seohocasi.com/wp-content/uploads/robots_txt.gif)