Copiar un sitio Web completo y verlo offline

Hace poco necesitaba realizar esta tarea, poder navegar completamente un sitio web sin tener Internet y me preguntaba como podía hacerlo sin tener que estar descargando pagina por pagina, se me ocurría bajarlo todo utilizando un gestor de descarga pero había que agregarle todos los enlaces del sitio uno por uno, navegando por google y la pagina de Open Source me encontré con este magnifico programa de código abierto se llama: WebHTTrack Site Copier.

Este software esta disponible para estos sistemas operativos: Windows 9x/NT/2000/XP y Linux/Unix/BSD.

Lo puedes descargar desde su pagina oficial: www.httrack.com

Para Windows se llama WinHTTrack pero también esta disponible para nuestro sistema operativo favorito Linux así que procedí a descargarlo.

No tiene un paquete para Ubuntu así que baje los sources y procedí a compilarlo yo mismo, nada del otro mundo.

Baje el archivo a una carpeta lo descomprimí, entre a la carpeta abrí Terminal y escribí lo siguiente:

./configure

sudo make

sudo make install

Al cabo de un montón de letras de código finalizo, lo busque en mis Aplicaciones y lo coloco en la Categoría Internet.

Lo abrí y tiene una interfaz muy intuitiva que se abre en tu explorador predeterminado, incluso puedes escoger el idioma en que lo quieres usar, selecciona si quieres bajar todo el sitio o solo una pagina.

HTTrack

Baje el sitio web a mi Carpeta personal, me creo una carpeta llamada “websites” y adentro creo otra carpeta con el nombre que le di al sitio que quería bajar.

HTTrack 2

Listo!

Todo el sitio se bajo a mi carpeta y ahora puedo verlo fuera de linea en una computadora que no tiene Internet sin ningún problema

Que les pareció? bondades del software libre. Y no tuve que practicar el peligroso deporte de andar bajando cracks.

Actualizado: Gracias a nuestro amigo ZФiX me pude dar cuenta que si esta en los repositorios, asi que si quieren instarlo desde Ubuntu solo tienen que hacer:

sudo apt-get install httrack

Buen dato ZФiX

 

About these ads

39 respuestas a Copiar un sitio Web completo y verlo offline

  1. ZФiX dice:

    Muy buena información.
    Solo algo: lo busqué haciendo un sudo apt-cache search httrack y está disponible para la instalación directa (sobra decir que luego se hace un sudo apt-get install httrack y listo).
    Tal vez en tus repositorios no estén, pero si hay paquete para Ubuntu :wink:
    Un saludo. Buen post.

  2. alexzelder dice:

    Gracias por la información amigo, ya actualice el post con tu comentario.

    Visite tu blog nein.wordpress.com , muy interesante!

    Saludos.

  3. speetean dice:

    Bien, gracias, de hecho desde Synaptic les das httrack y listo, esta muy chevere

  4. excelente herramienta, baje 4 sitios que necesitaba para estudiar, gracias milll

  5. Hans dice:

    Esta muy buena la heramienta, y se instala sola, descargando la primera que aparece en la tabla.
    Gracias

  6. Jose dice:

    En la web pone que el httrack es en modo línea de comandos y que el webhttrack con entorno gráfico, vamos, con el navegador que tengas predeterminado. Lo digo porque tu hablas del que tiene entorno gráfico y has puesto el de línea de comandos en la actualización.

    sudo apt-get install httrack
    sudo apt-get install webhttrack

    Un saludo.

  7. Boris dice:

    Muchas gracias… muy sencillo de usar….

  8. coool tool, es necearia realmente.

  9. fabian dice:

    hola, muchas gracias por la info pero desde hace rato estoy bajando un php y no funciona

  10. mijo, algo mas facil en linux es usar wget, es una herramienta que viene standard en los linux, simplemente pa copiar un sitio web, se usa la siguiente orden

    wget -r http://www.sitioweb.com

    y listo mi rey……

  11. javier dice:

    Pero los archivos PHP no los cpia.
    una web con archivos PHp (casi todas) no puede funcionar offline.

    • hesm3 dice:

      el problema con php se debe a que estos archivos contienen código el cuál no es permitido para cualquier usuario, estos códigos se ejecutan en el servidor, dependiendo de ciertas variables o argumentos que este reciba muestra solo cierto contenido a un usuario (según el privilegio que este tenga sobre los mismos) por lo que al intentar copiar el archivo este puede aparecer en blanco (generalmente sucede cuando el sitio esta desarrollado para los diversos navegadores y plataformas y requiere conocer cuál estás usando, lo que generalmente se hace por javascript, sino recibe una respuesta de tú equipo no te muestra nada o un mensaje de error) o simplemente aparece código html

  12. jose dice:

    y tambien se puedo copiar la web de youtube?????

    es que quiero tener todos los videos para poderlos ver cuando no tenga internet !

    jajaja no es posible

    • hesm3 dice:

      en realidad sí se podría, el problema sería el tamaño que puede tener este sitio, lo que puedes hacer es bajar algún video en especifico que te guste y verlo tranquilamente fuera de línea

  13. fredy dice:

    puedo tener la wikipedia sin internet?

  14. CAOS dice:

    Excelente, hermano ahora puedo hacer mi tarea tambien

    • Marcos dice:

      hola a todos, el programa funciona bien hasta cierto punto, ya que en los sitios web que piden usuario y clave, unicamente copia la pagina principal de presentacion, luego de eso nada mas, lo que yo deseo hacer es duplicar un sitio web que tiene campos de usuario y clave y poder nagevar en este sitio offline. Existe alguna forma de hacer esto?

      • hesm3 dice:

        logueate en el sitio primero usando el mismo navegador en el que emplearás la interfaz web; de este forma se te asignará una sesión activa en el servidor en el que se aloja el sitio; una vez hecho esto ya no requerirás de autenticación por lo que podrás copiar todo archivo al cuál puedas tener acceso

  15. Anderson dice:

    Se puede bajar completamente un sitio de HTML5

    • hesm3 dice:

      si se puede; aunque estos sitios no son comunes ya que el html5, a pesar de emplearse de forma pasiva, todavía está en desarrollo. Pero no te preocupes, la mayoría del código empleado es de html 4 por lo que no te dará ningún problema, al menos yo no lo he tenido.

  16. Aurora dice:

    Bueno probaré y ya les digo.
    Visiten mi web http://www.priasuk.com es interesante.

    Gracias

  17. Morris dice:

    Hola Hems3, me pasa igual que a Marcos, los sitios páginas con password nada de nada, me logueo en el mismo navegador que luego utilizar el programa winhtttrack pero nada, no consigo que el contenido del sitio web avance a partir de la página 15, (son 500) Al clickear sobre la pagina. ¿Qué puedo hacer mal? Y claro no encuentro otro programa que sí consiga copiar el contenido de es página tal cual, sin tener que loggearme. Uff a ver si se te ocurre algo amigo. Un abrazo

  18. Morris dice:

    Hola Hems3, tampoco puedo descargar la web cuando tiene usuario y contraseña, sabes alguna solución aparte de la de estar logado? porque despues cuando lo compruebo pues solo me deja acceder a la pagina 15 y son 1000… a ver si tienes alguna idea. Oye un abrazo y gracias de antemano.

    • hesm3 dice:

      Bueno, eso que mencionas nunca me ha pasado, aunque sé de casos en que ciertos sitios protegen el contenido de sus páginas por medio de lo que se conoce como “reglas para robots” cuya función es impedir que alguna aplicación pudiese indexar contenido al que no este autorizado o que el sitio no permita la descarga de lo que te esta mostrando por cuestiones de derechos de autor, como sería el caso de google books. Y cómo el servidor sabe que es una aplicación de este tipo? Pues sencillo, cada vez que visitas un sitio con tu navegador, este se identifica (lo que se conoce como user agent) y con esta identificación el sistemas pude mostrarte una codificación diferente para x navegador en x plataforma, o negarte el acceso en caso de ser un robot, en el caso de httrack, este se identifica como Mozilla/4.5 (compatible; HTTrack 3.0x; Windows 98), te recomiendo cambiarlo por la de tu navegador, en mi caso Mozilla/5.0 (X11; Linux i686 on x86_64; rv:7.0.1) Gecko/20100101 Firefox/7.0.1, bueno en las opciones de l httrack esta también la de seguir las reglas de robots del sitio, deshabilitala. En caso de que en tu carpeta en la que estes guardando los archivos se creen cookies y su valor no sea igual a la que tienen dichas cookies cuando te logueas en el navegador (para ver sus valores usa cookie editor) cambialo. Cualquier cosa me avizas.

  19. LUIS dice:

    MUY BUENA. GRACIAS

  20. hola dice:

    ya lo descargue ahora se puede por ejemplo subirlo a otra web como por ejemplo un clon ?

  21. Gabriel dice:

    Gracias men tendre en cuenta todo el detalle tras que termine

  22. bytelatino dice:

    Mi internet se corta, excelente herramienta para bajar un sitio web!

  23. PatolinSurf dice:

    Buena la gestión de tu parte excelente programita

  24. alejandro dice:

    perfecto, muchas gracias muy bueno el programa

  25. Antonio dice:

    Hola Alex

    Estoy interesado en WebHTTrack Site Copier. Lei tu articulo y esta genial, el asunto es que uso mac y soy primerizo en esto de la tecnología. Fui a la pagina y vi los link de descarga, baje el programa y me quede en las mismas ya que yo solo se ejecutar programas que se arrastran a la carpeta de aplicaciones. Me podrías ayudar o sabes de alguien que lo haya instalado en Mac?

    Muchas gracias.

    Antonio G.

  26. You can prepare in bulk and freeze meals to make it even
    more convenient, and as the baby reaches some age don’t use anything but the hand blender to squash family members meal down for them, so they really are eating exactly like all the family. The Kitchen – Aid hand blender by Immersion can be a sleek, ergonomic small hand blender with a powerful motor for mixing and blending small jobs once you don’t
    want to draw out the larger hand mixer or big countertop blender.

    Of course, as with all Kenwood products nowadays, invariably you could get your basic year-long warranty.

  27. Understanding the truth is there are only a small piece of online advertising
    the pie. The free ebook is present in the Internet and make your customers feel appreciated.
    Rather it is the base that specifies how a search engine optimisation SEO strategy.
    Advertising Challenges and Social NetworkingThere have been some documented challenges in trying
    to increase on-page SEO and get better search engine placement.

  28. Efraín Gb dice:

    Me salvaste la vida jaja!!! Gracias. Excelente aporte!! Bajé un Web site en WordPress y funcionó perfectamente (no el tuyo, tranquilo jaja. Uno mío que necesito exponer en un lugar sin Wi-fi).

  29. Angel Perez dice:

    men you are a fucking genius, Gracias

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

A %d blogueros les gusta esto: