Saltar al contenido

Descargar una página web completa en Ubuntu

A veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea.

También podemos descargar una página web completa si sabemos que va a desaparecer  y no queremos que se pierdan los contenidos. Esto puede ocurrir por cese del servicio o porque debido a la crisis su dueño se vea forzado a cerrarla.

En Ubuntu, y demás distribuciones GNU/Linux, tenemos varias opciones para realizar este cometido. Algunas ya han desaparecido y otras todavía funcionan. En este post voy a explicar como funcionan: Wget, las extensiones para Firefox ScrapBook y derivadas, el programa que se encuentra en los repositorios de la mayoría de distribuciones GNU/Linux: WebHTTrack, y la versión para Linux de Webcopier.

A traves de consola con wget.

En este caso existen varios parámetros para distintas funciones
  • -r = Descarga recursiva.
Sin más parámetros se seguirán todos los enlaces para descargar de forma masiva todo un blog o web.
  • -l # = Profundidad de descarga #
(cuántos niveles de enlaces se deben seguir)
  • -x = Crear estructura de directorios en el disco duro
mapeando la estructura de carpetas del servidor web
  • -np = (no-parent)
al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas
  • – N = time-stamping.
con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de las siguientes condiciones: 1. no tenemos ya un fichero local con el mismo nombre que el archivo a descargar y 2) existe un fichero con el mismo nmbre, pero el archivo remoto fue modificado más recientemente que el local. Esta información se conoce como time-stamps.

A través de extensiones para Firefox: como Web ScrapBook

Se trata de una extensión en fase experimental que sigue los pasos de ScrapBook que ya ha desaparecido. En las opciones permite configurar que partes de la web queremos descargar.  

Instalando HtTrack, y su opción gráfica Webhttrack.

Esta es quizá la mejor de todas y la que sigue funcionando sin problemas. Para instalarla podemos usar Synaptic y marcamos webhttrack para ser instalado. O también a través del Centro de Software en las últimas versiones de Ubuntu.
  • Al finalizar podemos ejecutarlo por primera vez
  • Escogemos el idioma español
  • Escribimos la URL de la página que deseemos copiar a nuestro disco duro, le damos un nombre y escogemos el directorio donde guardarlo.
  • Comienza la descarga

Descargando la versión para Linux de WebCopier

Actualización 03/12/2012 A partir de la versión 7 de Java el programa ha dejado de funcionar, puesto que es la misma versión desde el año 2008, quien todavía tenga instalado Java 6 o una versión anterior todavía puede conseguir que funcione. Actualización Febrero 2017 En la actualidad en la página web de la empresa http://www.maximumsoft.com solo tienen disponible la compra del programa para Windows y Mac WebCopier para Linux era de libre descarga para uso personal. y una vez descargado, lo guardamos en una carpeta local
  • Una vez tengamos el fichero lo abrimos y extraemos la carpeta Webcopier a nuestra carpeta personal.
  • Ahora con Gedit editamos $ gedit /home/tuusuario/webcopier/webcopier.desktop, y modificamos
Exec=»/home/tuusuario/webcopier/webcopier» Icon=/home/tuusuario/webcopier/icons/wc_linux_icon_64.png Path=/home/tuusuario/webcopier En este segundo caso podemos elegir el icono que prefiramos de los disponibles en la carpeta «icons»
  • Una vez hecho esto ya tenemos el lanzador preparado y podemos, si es nuestro gusto, copiarlo al escritorio o al panel.
  • Al ejecutarlo por primera vez nos salen dos mensajes:
donde pulsamos continuar como usuario personal donde nos informa de que solo se integra con Mozilla y no con Firefox por lo que pulsamos no, para que no nos salga el mensaje cada vez que iníciarmos el programa.
  • A continuación se nos abre el programa Webcopier
  • Podemos crear un nuevo proyecto y se nos abre el asistente en el que hay que ir cubriendo los datos que se solicitan.
  • Tiene la posibilidad de configurar entre otras el tamaño de los ficheros que queremos descargar.
  • Y comienza la descarga

Fuentes http://diariolinux.com

Relacionadas

Poner otra imagen de arranque (usplash) en Ubuntu Copiar /home a una partición diferente]]>

6 comentarios en «Descargar una página web completa en Ubuntu»

  1. Una corrección… el título podía ser:
    «Descargar una página web completa en Linux», está bien que estes usando Ubuntu, pero eso también se puede hacer en Debian u otro sistema GNU/Linux…
    Por lo que un tema más general podría ser más adecuado…. Ubuntu no es como decir Linux…

    1. Linux no es Todo GNU
      Lo correcto/etcio/moral/adecuado sería: «Descargar una página web completa en entornos GNU/Linux”
      Por lo demas, excelente aporte a la cominudad, saludos!

  2. Tienes razón Vargux, pero me gusta comprobar por mi mismo que lo que pongo en el post realmente funciona y solamente disponía de Ubuntu en el momento de hacer la prueba.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.