Hace poco necesitaba realizar esta tarea, poder navegar completamente un sitio web sin tener Internet y me preguntaba como podía hacerlo sin tener que estar descargando pagina por pagina, se me ocurría bajarlo todo utilizando un gestor de descarga pero había que agregarle todos los enlaces del sitio uno por uno, navegando por google y la pagina de Open Source me encontré con este magnifico programa de código abierto se llama: WebHTTrack Site Copier.
Este software esta disponible para estos sistemas operativos: Windows 9x/NT/2000/XP y Linux/Unix/BSD.
Lo puedes descargar desde su pagina oficial: www.httrack.com
Para Windows se llama WinHTTrack pero también esta disponible para nuestro sistema operativo favorito Linux así que procedí a descargarlo.
No tiene un paquete para Ubuntu así que baje los sources y procedí a compilarlo yo mismo, nada del otro mundo.
Baje el archivo a una carpeta lo descomprimí, entre a la carpeta abrí Terminal y escribí lo siguiente:
./configure
sudo make
sudo make install
Al cabo de un montón de letras de código finalizo, lo busque en mis Aplicaciones y lo coloco en la Categoría Internet.
Lo abrí y tiene una interfaz muy intuitiva que se abre en tu explorador predeterminado, incluso puedes escoger el idioma en que lo quieres usar, selecciona si quieres bajar todo el sitio o solo una pagina.
Baje el sitio web a mi Carpeta personal, me creo una carpeta llamada “websites” y adentro creo otra carpeta con el nombre que le di al sitio que quería bajar.
Listo!
Todo el sitio se bajo a mi carpeta y ahora puedo verlo fuera de linea en una computadora que no tiene Internet sin ningún problema
Que les pareció? bondades del software libre. Y no tuve que practicar el peligroso deporte de andar bajando cracks.
Actualizado: Gracias a nuestro amigo ZФiX me pude dar cuenta que si esta en los repositorios, asi que si quieren instarlo desde Ubuntu solo tienen que hacer:
sudo apt-get install httrack
Buen dato ZФiX
Muy buena información.
Solo algo: lo busqué haciendo un sudo apt-cache search httrack y está disponible para la instalación directa (sobra decir que luego se hace un sudo apt-get install httrack y listo).
Tal vez en tus repositorios no estén, pero si hay paquete para Ubuntu 😉
Un saludo. Buen post.
Gracias por la información amigo, ya actualice el post con tu comentario.
Visite tu blog nein.wordpress.com , muy interesante!
Saludos.
Bien, gracias, de hecho desde Synaptic les das httrack y listo, esta muy chevere
excelente herramienta, baje 4 sitios que necesitaba para estudiar, gracias milll
Esta muy buena la heramienta, y se instala sola, descargando la primera que aparece en la tabla.
Gracias
En la web pone que el httrack es en modo línea de comandos y que el webhttrack con entorno gráfico, vamos, con el navegador que tengas predeterminado. Lo digo porque tu hablas del que tiene entorno gráfico y has puesto el de línea de comandos en la actualización.
sudo apt-get install httrack
sudo apt-get install webhttrack
Un saludo.
Muchas gracias… muy sencillo de usar….
coool tool, es necearia realmente.
hola, muchas gracias por la info pero desde hace rato estoy bajando un php y no funciona
mijo, algo mas facil en linux es usar wget, es una herramienta que viene standard en los linux, simplemente pa copiar un sitio web, se usa la siguiente orden
wget -r http://www.sitioweb.com
y listo mi rey……
Pero los archivos PHP no los cpia.
una web con archivos PHp (casi todas) no puede funcionar offline.
el problema con php se debe a que estos archivos contienen código el cuál no es permitido para cualquier usuario, estos códigos se ejecutan en el servidor, dependiendo de ciertas variables o argumentos que este reciba muestra solo cierto contenido a un usuario (según el privilegio que este tenga sobre los mismos) por lo que al intentar copiar el archivo este puede aparecer en blanco (generalmente sucede cuando el sitio esta desarrollado para los diversos navegadores y plataformas y requiere conocer cuál estás usando, lo que generalmente se hace por javascript, sino recibe una respuesta de tú equipo no te muestra nada o un mensaje de error) o simplemente aparece código html
y tambien se puedo copiar la web de youtube?????
es que quiero tener todos los videos para poderlos ver cuando no tenga internet !
jajaja no es posible
en realidad sí se podría, el problema sería el tamaño que puede tener este sitio, lo que puedes hacer es bajar algún video en especifico que te guste y verlo tranquilamente fuera de línea
puedo tener la wikipedia sin internet?
si tienes un disco con sificiente capacidad y un servidor capaz de alojarlo sí.
Gran post http://www.vertutoriales.com/index.php/tag/ph/php/ espero que sirva
Excelente, hermano ahora puedo hacer mi tarea tambien
hola a todos, el programa funciona bien hasta cierto punto, ya que en los sitios web que piden usuario y clave, unicamente copia la pagina principal de presentacion, luego de eso nada mas, lo que yo deseo hacer es duplicar un sitio web que tiene campos de usuario y clave y poder nagevar en este sitio offline. Existe alguna forma de hacer esto?
logueate en el sitio primero usando el mismo navegador en el que emplearás la interfaz web; de este forma se te asignará una sesión activa en el servidor en el que se aloja el sitio; una vez hecho esto ya no requerirás de autenticación por lo que podrás copiar todo archivo al cuál puedas tener acceso
Se puede bajar completamente un sitio de HTML5
si se puede; aunque estos sitios no son comunes ya que el html5, a pesar de emplearse de forma pasiva, todavía está en desarrollo. Pero no te preocupes, la mayoría del código empleado es de html 4 por lo que no te dará ningún problema, al menos yo no lo he tenido.
Bueno probaré y ya les digo.
Visiten mi web http://www.priasuk.com es interesante.
Gracias
Hola Hems3, me pasa igual que a Marcos, los sitios páginas con password nada de nada, me logueo en el mismo navegador que luego utilizar el programa winhtttrack pero nada, no consigo que el contenido del sitio web avance a partir de la página 15, (son 500) Al clickear sobre la pagina. ¿Qué puedo hacer mal? Y claro no encuentro otro programa que sí consiga copiar el contenido de es página tal cual, sin tener que loggearme. Uff a ver si se te ocurre algo amigo. Un abrazo
Hola Hems3, tampoco puedo descargar la web cuando tiene usuario y contraseña, sabes alguna solución aparte de la de estar logado? porque despues cuando lo compruebo pues solo me deja acceder a la pagina 15 y son 1000… a ver si tienes alguna idea. Oye un abrazo y gracias de antemano.
Bueno, eso que mencionas nunca me ha pasado, aunque sé de casos en que ciertos sitios protegen el contenido de sus páginas por medio de lo que se conoce como «reglas para robots» cuya función es impedir que alguna aplicación pudiese indexar contenido al que no este autorizado o que el sitio no permita la descarga de lo que te esta mostrando por cuestiones de derechos de autor, como sería el caso de google books. Y cómo el servidor sabe que es una aplicación de este tipo? Pues sencillo, cada vez que visitas un sitio con tu navegador, este se identifica (lo que se conoce como user agent) y con esta identificación el sistemas pude mostrarte una codificación diferente para x navegador en x plataforma, o negarte el acceso en caso de ser un robot, en el caso de httrack, este se identifica como Mozilla/4.5 (compatible; HTTrack 3.0x; Windows 98), te recomiendo cambiarlo por la de tu navegador, en mi caso Mozilla/5.0 (X11; Linux i686 on x86_64; rv:7.0.1) Gecko/20100101 Firefox/7.0.1, bueno en las opciones de l httrack esta también la de seguir las reglas de robots del sitio, deshabilitala. En caso de que en tu carpeta en la que estes guardando los archivos se creen cookies y su valor no sea igual a la que tienen dichas cookies cuando te logueas en el navegador (para ver sus valores usa cookie editor) cambialo. Cualquier cosa me avizas.
MUY BUENA. GRACIAS
ya lo descargue ahora se puede por ejemplo subirlo a otra web como por ejemplo un clon ?
no lo dudes; pero recuerda que la información del sitio puede contener información con derechos de autor así que ten cuidado.
Gracias men tendre en cuenta todo el detalle tras que termine
bacano este tema
gracias
Mi internet se corta, excelente herramienta para bajar un sitio web!
Buena la gestión de tu parte excelente programita
perfecto, muchas gracias muy bueno el programa
Hola Alex
Estoy interesado en WebHTTrack Site Copier. Lei tu articulo y esta genial, el asunto es que uso mac y soy primerizo en esto de la tecnología. Fui a la pagina y vi los link de descarga, baje el programa y me quede en las mismas ya que yo solo se ejecutar programas que se arrastran a la carpeta de aplicaciones. Me podrías ayudar o sabes de alguien que lo haya instalado en Mac?
Muchas gracias.
Antonio G.
You can prepare in bulk and freeze meals to make it even
more convenient, and as the baby reaches some age don’t use anything but the hand blender to squash family members meal down for them, so they really are eating exactly like all the family. The Kitchen – Aid hand blender by Immersion can be a sleek, ergonomic small hand blender with a powerful motor for mixing and blending small jobs once you don’t
want to draw out the larger hand mixer or big countertop blender.
Of course, as with all Kenwood products nowadays, invariably you could get your basic year-long warranty.
Understanding the truth is there are only a small piece of online advertising
the pie. The free ebook is present in the Internet and make your customers feel appreciated.
Rather it is the base that specifies how a search engine optimisation SEO strategy.
Advertising Challenges and Social NetworkingThere have been some documented challenges in trying
to increase on-page SEO and get better search engine placement.
Me salvaste la vida jaja!!! Gracias. Excelente aporte!! Bajé un Web site en WordPress y funcionó perfectamente (no el tuyo, tranquilo jaja. Uno mío que necesito exponer en un lugar sin Wi-fi).
men you are a fucking genius, Gracias
Depdiendo de sitio especifico que se quiere bajar deberia tardar menos pues la pagina web que estoy tratando el off line es casi solo texto aunque tiene muchos enlaces, tarda bastante y consume mucha capacidad.
I еnjoy what үou guys are up too. Ƭhis sοrt of clever work and coverage!
Keep up the wondеrful works guys I’ve included yoս guys
to my own blogroll.
І am сurious to find out what bⅼog syѕtem you’re utilizing?
I’m having some minor security problᥱms with my latest blog and I’d like to find something more secure.
Do you have any recommendations?
そのアイデアは多くの人に評価してもらったんですけど、いきなり大きく展開することなく、無理のない範囲で続けていくことにしました。スカート侍 http://www.rocketconstruction.net/images/photoalbum/redirect/20141203012256-e382b9e382abe383bce38388e4be8d-htal.html
It’s going to be end of mine day, however before ending I am reading
this enormous post to increase my knowledge.
You remind me of my bestie. I really love your writing style and how well you express your thoughts. I bet you sweat glitter. No complaints on this end, simply a magnificent piece.
There are certainly a lot of things to take into consideration. Your points are well formed. That cleared it up for me.
Any additional suggestions or hints? In my view, if all webmasters and bloggers made just right content material as you did, the web might be a lot more helpful than ever before. I needed this. I will bookmark this. This really answered my problem.
It is wonderful to possess the chance to study a great high-quality write-up with handy information on subjects that lots are interested on.I concur together with your conclusions and can eagerly appear forward to your long term updates.