2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

¿Cómo puedo descargar toda una página web?

¿Cómo puedo descargar todas las páginas de una página web?

Cualquier plataforma está bien.

Respuestas (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK funciona como un campeón para copiar el contenido de un sitio entero. Esta herramienta puede incluso agarrar las piezas necesarias para hacer que un sitio web con contenido de código activo funcione fuera de línea. Estoy sorprendido por las cosas que puede replicar fuera de línea.

Este programa hará todo lo que usted requiera de él.

¡Feliz cacería!

282
282
282
2009-07-28 14:05:25 +0000

(http://www.gnu.org/software/wget/) es una clásica herramienta de línea de comando para este tipo de tareas. Viene con la mayoría de los sistemas Unix/Linux, y también puedes obtenerla para Windows . En una Mac, Homebrew es la forma más fácil de instalarlo (brew install wget).

Harías algo como:

wget -r --no-parent http://site.com/songs/

Para más detalles, ver Wget Manual y sus ejemplos , o e. g. estos:

8
8
8
2009-09-16 22:12:13 +0000

Deberías echar un vistazo a ScrapBook , una extensión de Firefox. Tiene un modo de captura en profundidad .

8
8
8
2009-09-16 21:56:24 +0000

Gestor de Descargas de Internet tiene una utilidad Site Grabber con muchas opciones - que te permite descargar completamente cualquier sitio web que quieras, de la manera que quieras.

  1. Puedes establecer el límite del tamaño de las páginas/archivos a descargar

  2. Puedes establecer el número de sitios web de sucursales a visitar

  3. Puede cambiar la forma en que se comportan los scripts/popups/duplicados

  4. Puede especificar un dominio, sólo bajo ese dominio se descargarán todas las páginas/archivos que cumplan con la configuración requerida

  5. Los enlaces pueden convertirse en enlaces fuera de línea para navegar

  6. Tiene plantillas que le permiten elegir los ajustes anteriores para usted

  1. El software no es gratuito, sin embargo - vea si se adapta a sus necesidades, utilice la versión de evaluación.
7
7
7
2009-09-17 11:42:49 +0000

Peste* - ¡ese es el nombre del programa!

5
5
5
2009-09-17 02:08:03 +0000

Me gusta Offline Explorer . Es un shareware, pero es muy bueno y fácil de usar.

5
5
5
2009-07-28 14:03:11 +0000

Me referiré a la memoria intermedia en línea que usan los navegadores…

Normalmente la mayoría de los navegadores usan una caché de navegación para mantener los archivos que descargas de un sitio web durante un tiempo para que no tengas que descargar imágenes estáticas y contenido una y otra vez. Esto puede acelerar bastante las cosas en algunas circunstancias. En general, la mayoría de los cachés de los navegadores se limitan a un tamaño fijo y cuando alcanza ese límite, se eliminan los archivos más antiguos del caché.

Los proveedores de servicios de Internet tienden a tener servidores de caché que guardan copias de los sitios web a los que se accede comúnmente, como ESPN y CNN. Esto les ahorra la molestia de golpear estos sitios cada vez que alguien en su red va allí. Esto puede suponer un ahorro significativo en la cantidad de solicitudes duplicadas a sitios externos al ISP.

4
4
4
2010-02-26 01:26:42 +0000

(http://www.spidersoft.com/webzip/screenshots.asp) es un buen producto también.

4
4
4
2009-07-28 23:23:28 +0000

No he hecho esto en muchos años, pero todavía hay algunas utilidades por ahí. Tal vez quieras probar Web Snake . Creo que lo usé hace años. Recordé el nombre enseguida cuando leí tu pregunta.

Estoy de acuerdo con Stecy. Por favor no martillee su sitio. Muy mal.

3
3
3
2009-10-14 11:41:36 +0000

Pruebe Navegador BackStreet .

Es un potente y gratuito navegador offline. Un programa de descarga y visualización de sitios web de alta velocidad y multi-hilo. Al hacer múltiples solicitudes simultáneas al servidor, BackStreet Browser puede descargar rápidamente todo el sitio web o parte de él, incluyendo HTML, gráficos, Java Applets, sonido y otros archivos definibles por el usuario, y guarda todos los archivos en su disco duro, ya sea en su formato nativo, o como un archivo ZIP comprimido y verlo sin conexión.

3
3
3
2013-03-21 17:14:16 +0000

Teleport Pro es otra solución gratuita que copiará todos y cada uno de los archivos de lo que sea su objetivo (también tiene una versión pagada que le permitirá sacar más páginas de contenido).

3
3
3
2009-09-16 22:17:23 +0000

DownThemAll es un complemento de Firefox que descargará todo el contenido (archivos de audio o video, por ejemplo) de una página web en particular con un solo clic. Esto no descarga todo el sitio, pero puede ser el tipo de cosa que la pregunta estaba buscando.

3
3
3
2015-09-18 01:41:23 +0000

Para Linux y OS X: Escribí grab-site para archivar sitios web enteros a WARC archivos. Estos archivos WARC pueden ser navegados o extraídos. grab-site te permite controlar que URLs saltear usando expresiones regulares, y estas pueden ser cambiadas cuando el rastreo se está ejecutando. También viene con un extenso conjunto de valores predeterminados para ignorar las URLs basura.

Hay un tablero de control web para monitorear los rastreos, así como opciones adicionales para saltar el contenido del video o las respuestas sobre un cierto tamaño.

1
1
1
2017-11-03 18:13:37 +0000

Power wget

Mientras que wget ya fue mencionado este recurso y la línea de comandos fue tan fluida que pensé que merecía ser mencionado:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ Ver este código explicado en explainshell

0
0
0
2019-10-14 14:14:05 +0000

Save Page WE

Excelente extensión tanto para Chrome como para Firefox que descarga la mayor parte/todo el contenido de una página web y lo almacena directamente en el archivo .html. Google Chrome Extension Firefox Extension

Me di cuenta de que en una página de galería de fotos en la que lo probé, guardaba las miniaturas pero no las imágenes completas. O tal vez no el JavaScript para abrir las imágenes completas de las miniaturas.

Pero, funcionó mejor que wget, PDF, etc. Una gran solución simple para las necesidades de la mayoría de la gente.

0
0
0
2019-11-11 16:33:26 +0000

Puedes usar las siguientes herramientas online gratuitas que harán un archivo zip de todos los contenidos incluidos en esa url

0
0
0
2015-09-27 08:49:33 +0000

El venerable * FreeDownloadManager.org ** tiene esta característica también.

Free Download Manager lo tiene en dos formas en dos formas: Site Explorer y Site Spider :

Site Explorer Site Explorer te permite ver la estructura de carpetas de un sitio web y descargar fácilmente los archivos o carpetas necesarios. HTML Spider Puedes descargar páginas web enteras o incluso sitios web enteros con HTML Spider. La herramienta puede ajustarse para descargar sólo archivos con extensiones específicas.

Encuentro que Site Explorer es útil para ver qué carpetas incluir/excluir antes de intentar descargar todo el sitio - especialmente cuando hay un foro entero escondido en el sitio que no quieres descargar, por ejemplo.

-1
-1
-1
2015-09-21 16:02:12 +0000

descargar HTTracker descargará sitios web muy fáciles de seguir.

enlace de descarga http://www.httrack.com/page/2/

video que ayuda puede ayudarte https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000
-4
-4
-4
2015-05-16 18:05:51 +0000

Creo que google chrome puede hacer esto en los dispositivos de escritorio, sólo tienes que ir al menú del navegador y hacer clic en “Guardar página web”.

Ten en cuenta también que los servicios como pocket pueden no guardar realmente el sitio web y, por lo tanto, son susceptibles de la putrefacción de los enlaces.

Por último, ten en cuenta que la copia del contenido de un sitio web puede infringir los derechos de autor, si se aplica.