A veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea.
También podemos descargar una página web completa si sabemos que va a desaparecer y no queremos que se pierdan los contenidos. Esto puede ocurrir por cese del servicio o porque debido a la crisis su dueño se vea forzado a cerrarla.
En Ubuntu, y demás distribuciones GNU/Linux, tenemos varias opciones para realizar este cometido. Algunas ya han desaparecido y otras todavía funcionan. En este post voy a explicar como funcionan: Wget, las extensiones para Firefox ScrapBook y derivadas, el programa que se encuentra en los repositorios de la mayoría de distribuciones GNU/Linux: WebHTTrack, y la versión para Linux de Webcopier.
A traves de consola con wget.
En este caso existen varios parámetros para distintas funciones- -r = Descarga recursiva.
- -l # = Profundidad de descarga #
- -x = Crear estructura de directorios en el disco duro
- -np = (no-parent)
- – N = time-stamping.
A través de extensiones para Firefox: como Web ScrapBook
Se trata de una extensión en fase experimental que sigue los pasos de ScrapBook que ya ha desaparecido.
Instalando HtTrack, y su opción gráfica Webhttrack.
Esta es quizá la mejor de todas y la que sigue funcionando sin problemas. Para instalarla podemos usar Synaptic y marcamos webhttrack para ser instalado. O también a través del Centro de Software en las últimas versiones de Ubuntu.
- Al finalizar podemos ejecutarlo por primera vez

- Escogemos el idioma español

- Escribimos la URL de la página que deseemos copiar a nuestro disco duro, le damos un nombre y escogemos el directorio donde guardarlo.

- Comienza la descarga

Descargando la versión para Linux de WebCopier
Actualización 03/12/2012 A partir de la versión 7 de Java el programa ha dejado de funcionar, puesto que es la misma versión desde el año 2008, quien todavía tenga instalado Java 6 o una versión anterior todavía puede conseguir que funcione. Actualización Febrero 2017 En la actualidad en la página web de la empresa http://www.maximumsoft.com solo tienen disponible la compra del programa para Windows y Mac WebCopier para Linux era de libre descarga para uso personal. y una vez descargado, lo guardamos en una carpeta local- Una vez tengamos el fichero lo abrimos y extraemos la carpeta Webcopier a nuestra carpeta personal.
- Ahora con Gedit editamos $ gedit /home/tuusuario/webcopier/webcopier.desktop, y modificamos
- Una vez hecho esto ya tenemos el lanzador preparado y podemos, si es nuestro gusto, copiarlo al escritorio o al panel.

- Al ejecutarlo por primera vez nos salen dos mensajes:


- A continuación se nos abre el programa Webcopier

- Podemos crear un nuevo proyecto y se nos abre el asistente en el que hay que ir cubriendo los datos que se solicitan.
- Tiene la posibilidad de configurar entre otras el tamaño de los ficheros que queremos descargar.





- Y comienza la descarga
Fuentes http://diariolinux.com
Relacionadas
Poner otra imagen de arranque (usplash) en Ubuntu Copiar /home a una partición diferente]]>
Era todo lo que andaba buscando, junto. Bueno post!
Una corrección… el título podía ser:
«Descargar una página web completa en Linux», está bien que estes usando Ubuntu, pero eso también se puede hacer en Debian u otro sistema GNU/Linux…
Por lo que un tema más general podría ser más adecuado…. Ubuntu no es como decir Linux…
Linux no es Todo GNU
Lo correcto/etcio/moral/adecuado sería: «Descargar una página web completa en entornos GNU/Linux”
Por lo demas, excelente aporte a la cominudad, saludos!
Tienes razón Vargux, pero me gusta comprobar por mi mismo que lo que pongo en el post realmente funciona y solamente disponía de Ubuntu en el momento de hacer la prueba.
pense que ubuntu la descargaba xD… … ke sorpresa.. la descarga wget 🙂
exelente gracias !!!!!