2013-06-07 02:35:43 +0000 2013-06-07 02:35:43 +0000
8
8
Advertisement

Copiar todos los archivos de una ubicación de carpeta HTTP a una carpeta local

Advertisement

Soy un estudiante y necesito bajar muchas cosas del sitio web de mi profesor, preferiblemente conservando parte de la estructura de carpetas.

Estoy trabajando en cajas de Windows y tengo acceso a Windows XP, Windows 7 y Windows Server 2008 R2. Hace mucho tiempo (hace 2-3 años) probé algunas utilidades que reflejaban páginas web y ese tipo de cosas y por diversas razones nunca funcionaron bien, o nunca pude obtener lo que quería de ellas.

Así, por ejemplo, estas carpetas:

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

En esencia, un auténtico coñazo intentar descargarlas manualmente para usarlas después.

He probado esta utilidad y o bien es exagerada, o bien no es lo suficientemente sencilla porque nunca pude conseguir que simplemente descargara los archivos a mi disco duro.

Idealmente, me gustaría escanear recursivamente la carpeta, recrear la estructura de carpetas en alguna carpeta especificada, y luego copiar los archivos del servidor remoto a su correspondiente carpeta en mi máquina local.

Advertisement
Advertisement

Respuestas (3)

9
9
9
2013-06-07 03:05:59 +0000

La utilidad más sencilla para descargar los archivos del sitio web de forma recursiva es WGET: http://gnuwin32.sourceforge.net/packages/wget.htm

5
5
5
2013-06-07 06:08:35 +0000

Vea el uso de HTTrack :

Permite descargar un sitio de la World Wide Web desde Internet a un directorio local, construyendo recursivamente todos los directorios, obteniendo HTML, imágenes y otros archivos desde el servidor a su ordenador. HTTrack organiza la estructura de enlaces relativa del sitio original. Sólo tiene que abrir una página del sitio web “reflejado” en su navegador, y podrá navegar por el sitio de enlace en enlace, como si lo estuviera viendo en línea. HTTrack también puede actualizar un sitio reflejado existente y reanudar las descargas interrumpidas. HTTrack es totalmente configurable y tiene un sistema de ayuda integrado.

5
Advertisement
5
5
2014-07-21 03:20:11 +0000
Advertisement

Complemento de Firefox: DownThemAll!

Extensión de Chrome: GetThemAll

Advertisement

Preguntas relacionadas

7
3
19
16
4
Advertisement
Advertisement