Usando wget y Linux para bajar sitios web completos 22

wget: Bajando sitios enteros facilmente

Unos trucos para lograr bajar automaticamente los sitios que necesites desde el internet a tu pc.

Wget es una herramienta que viene en cualquier linux, es usada para bajar archivos desde internet. Su forma basica de uso es: wget http://www.guatewireless.org/crack.exe

Esta es la manera en la cual wget se utiliza normalmente, pero tambien puede ser utilizado recursivamente, esto es su poder escondido. wget puede conectarse a los sitios y recursivamente bajar todas las paginas (imagenes y otro tipo de datos) que esten linkeadas en la pagina principal:

wget -r http://www.guatewireless.org/

Sin embargo, existen muchos sitios los cuales nos deniegan poder bajar el sitio completo. Para prevenir esto, los sitios verifican la identificacion de los navegadores. Para evitar estas molestias wget tiene la opcion -U.

wget  -r -p -U Mozilla http://www.guatewireless.org/

Seria bueno que agregaran las opciones –limit-rate= y –wait=. Lo anterior es para hacer pausa entre cada pagina, ya que de lo contrario el dueno del sitio puede darse cuenta que con un simple comando wget le estamos bajando el sitio completamente. Sin embargo, nadie se dara cuenta si limitan la velocidad de descarga y hacen pausa entre archivos.

wget --wait=20 --limit-rate=20K -r -p -U Mozilla http://www.guatewireless.org/

Use –no-parent

–no-parent esta opcion garantiza de que wget no descargara archivos por debajo del directorio que deseamos descargar.

Terminos de busqueda

  • wget linux
  • linux wget
  • descargar web wget
  • wget descargar sitio completo
  • descargar web linux
  • descargar web con wget
  • wget descargar web
  • wget en linux
  • comando wget linux
  • wget
  • 22 thoughts on “Usando wget y Linux para bajar sitios web completos

    1. Reply oswaldo Dec 1,2012 13:06

      una pregunta
      Espero me puedan ayudar porque es para el lunes 3 de diciembre del 2012

      Es para un examen y no se como hacerlo solo nos dijo el profesor que es lo que se iba hacer.

      Reubicacion de un sitio web ajustando las referencias href.
      1.-Considerando un sitio Web, descargar el sitio completo a un directorio local mediante el comando wget. Y mediante un script de su autoría realizar las siguientes operaciones:

      1.1.-Crear un directorio independiente para cada tipo de contenido: imágenes gif, imágenes jpeg, etc, vídeos avi, vídeos mpg, etc, audio mp3, audio wav, etc., contenido web (HTML, javascript, etc).

      1.2.-Una vez que se ha reubicado cada uno de estos contenidos, llevar a cabo el ajuste de las referencias hacía las ubicaciones locales de cada recurso del sitio.

      1.3.-Activar un servidor Web, y configurar el directorio raíz en donde se encuentra el respaldo del sitio Web como el directorio root del servidor Web local.

      1.4.-Nota: el comando wget solo se podrá usar con las opciones siguientes:
      –recursive
      –domains
      –page-requisites
      Si por alguna razón son necesario mas comandos, utilizar los necesarios.

    2. Reply wiggin Feb 9,2013 04:39

      esta muy bien, pero te has olvidado de explicar la opcion k, para poder navegar en la pagina des en local sin tener acceso a internet

    Comentario, Preguntas o agradecimientos?

    %d bloggers like this: