A veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea y no queremos que se pierdan los contenidos, o porque debido a la crisis su dueño se vea forzado a abandonarla o cerrarla.

En Ubuntu, y demás distribuciones GNU/Linux, tenemos varias opciones para realizar este cometido y entre estos están los que voy a explicar en este post: Wget, las extensiones para Firefox ScrapBook y derivadas, el programa que se encuentra en los repositorios de la mayoría de distribuciones GNU/Linux: WebHTTrack, y la versión para Linux de Webcopier.

A traves de consola con wget.

En este caso existen varios parámetros para distintas funciones

  • -r = Descarga recursiva.

Sin más parámetros se seguirán todos los enlaces para descargar de forma masiva todo un blog o web.

  • -l # = Profundidad de descarga #

(cuántos niveles de enlaces se deben seguir)

  • -x = Crear estructura de directorios en el disco duro

mapeando la estructura de carpetas del servidor web

  • -np = (no-parent)

al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas

  • – N = time-stamping.

con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de las siguientes condiciones: 1. no tenemos ya un fichero local con el mismo nombre que el archivo a descargar y 2) existe un fichero con el mismo nmbre, pero el archivo remoto fue modificado más recientemente que el local. Esta información se conoce como time-stamps.

A través de las extensiones para Firefox: ScrapBook, o de su sucesora ScrapBook+

Extensión Firefox Scrapbook

Instalando HtTrack, y su opción gráfica Webhttrack.

Para ello abrimos Synaptic y marcamos webhttrack para ser instalado. O también a través del Centro de Software en las últimas versiones de Ubuntu.

  • Al finalizar podemos ejecutarlo por primera vez

  • Escogemos el idioma español

  • Escribimos la URL de la página que deseemos copiar a nuestro disco duro, le damos un nombre y escogemos el directorio donde guardarlo.

  • Comienza la descarga

Descargando la versión para Linux de WebCopier

Actualización 03/12/2012
A partir de la versión 7 de Java el programa ha dejado de funcionar, puesto que es la misma versión desde el año 2008, quien todavía tenga instalado Java 6 o una versión anterior todavía puede conseguir que funcione.
Actualización Febrero 2017
En la actualidad en la página web de la empresa http://www.maximumsoft.com solo tienen disponible la compra del programa para Windows y Mac

WebCopier para Linux era de libre descarga para uso personal. y una vez descargado, lo guardamos en una carpeta local

  • Una vez tengamos el fichero lo abrimos y extraemos la carpeta Webcopier a nuestra carpeta personal.
  • Ahora con Gedit editamos $ gedit /home/tuusuario/webcopier/webcopier.desktop, y modificamos

Exec=”/home/tuusuario/webcopier/webcopier”

Icon=/home/tuusuario/webcopier/icons/wc_linux_icon_64.png

Path=/home/tuusuario/webcopier

En este segundo caso podemos elegir el icono que prefiramos de los disponibles en la carpeta “icons”

  • Una vez hecho esto ya tenemos el lanzador preparado y podemos, si es nuestro gusto, copiarlo al escritorio o al panel.

  • Al ejecutarlo por primera vez nos salen dos mensajes:

donde pulsamos continuar como usuario personal

donde nos informa de que solo se integra con Mozilla y no con Firefox por lo que pulsamos no, para que no nos salga el mensaje cada vez que iníciarmos el programa.

  • A continuación se nos abre el programa Webcopier

  • Podemos crear un nuevo proyecto y se nos abre el asistente en el que hay que ir cubriendo los datos que se solicitan.
  • Tiene la posibilidad de configurar entre otras el tamaño de los ficheros que queremos descargar.





  • Y comienza la descarga

Fuentes
http://diariolinux.com

Relacionadas

Poner otra imagen de arranque (usplash) en Ubuntu
Copiar /home a una partición diferente

JVareGNU/LinuxProgramas útilesSolucionar problemascopiar paginas web,Descargar paginas web,navegar of lineA veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea y no queremos que se pierdan los contenidos, o porque debido a la crisis su...Gnu/Linux, Manuales de Hardware, y mas.