A veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea y no queremos que se pierdan los contenidos, o porque debido a la crisis su dueño se vea forzado a abandonarla o cerrarla.

En Ubuntu, y demás distribuciones GNU/Linux, tenemos varias opciones para realizar este cometido y entre estos están los que voy a explicar en este post: Wget, la extensión para Firefox ScrpBook, el programa que se encuentra en los repositorios WebHTTrack, y la versión para Linux de Webcopier.

  1. A traves de consola con wget. En este caso existen varios parametros para distintas funciones
    • -r = Descarga recursiva.

    Sin más parámetros se seguirán todos los enlaces para descargar de forma masiva todo un site.

    • -l # = Profundidad de descarga #

    (cuántos niveles de enlaces se deben seguir)

    • -x = Crear estructura de directorios en el disco duro

    mapeando la estructura de carpetas del servidor web

    • -np = (no-parent)

    al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas

    • - N = time-stamping.

    con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de las siguientes condiciones: 1. no tenemos ya un fichero local con el mismo nombre que el archivo a descargar y 2) existe un fichero con el mismo nmbre, pero el archivo remoto fue modificado más recientemente que el local. Esta información se conoce como time-stamps.

  2. A través de las extensiones para Firefox: ScrapBook, o de su sucesora ScrapBook+

  3. Instalando HtTrack. Para ello abrimos Synaptic y marcamos webhttrack para ser instalado. O también a través del Centro de Software en las últimas versiones de Ubuntu.

    • Al finalizar podemos ejecutarlo por primera vez

    • Escogemos el idioma español

    • Escribimos la URL de la página que deseemos copiar a nuestro disco duro, le damos un nombre y escogemos el directorio donde guardarlo.

    • Comienza la descarga

  4. Descargando la versión para Linux de WebCopier desde la página Web: http://www.maximumsoft.com/products/wc_linux/overview.html

    Actualización 03/12/2012
    A partir de la versión 7 de Java el programa ha dejado de funcionar, puesto que es la misma versión desde el año 2008, quien todavía tenga instalado Java 6 o una versión anterior todavía puede conseguir que funcione.

WebCopier para Linux es de libre descarga para uso personal. y una vez descargado, lo guardamos en una carpeta local

  • Una vez tengamos el fichero lo abrimos y extraemos la carpeta Webcopier a nuestra carpeta personal.
  • Ahora con Gedit editamos $ gedit /home/tuusuario/webcopier/webcopier.desktop, y modificamos

Exec=”/home/tuusuario/webcopier/webcopier”

Icon=/home/tuusuario/webcopier/icons/wc_linux_icon_64.png

Path=/home/tuusuario/webcopier

En este segundo caso podemos escoger el icono que prefiramos de los disponibles en la carpeta “icons”

  • Una vez hecho esto ya tenemos el lanzados preparado y podemos, si es nuestro gusto, copiarlo al escritorio o al panel.

  • Al ejecutarlo por primera vez nos salen dos mensajes:

donde pulsamos continuar como usuario personal

donde nos informa de que solo se integra con Mozilla y no con Firefox por lo que pulsamos no para que nos salga el mensaje cada vez que inicíarmos el programa.

  • A continuación se nos abre el programa Webcopier

  • Podemos crear un nuevo proyecto y se nos abre el asistente en el que hay que ir cubriendo los datos que se solicitan.
  • Tiene la posibilidad de configurar entre otras el tamaño de los ficheros que queremos descargar.




  • Y comienza la descarga

 

Fuentes
http://diariolinux.com

Relacionadas

Poner otra imagen de arranque (usplash) en Ubuntu

Copiar /home a una partición diferente