« Offtopic  |

Webseite automatisiert lokal abspeichern?

Teilen: facebook    whatsapp    email
  •  ildefonso
  •   Gold-Award
8.5. - 12.6.2018
4 Antworten | 4 Autoren 4
4
Hier sind ja einige IT'ler ... bevor ich mich in einem IT-Forum anmelde, also hier die Frage:

Ich möchte mir von einer Homepage einen Katalog downloaden, dieser ist jedoch auf viele Einzelseiten, die aufsteigend nummeriert sind, verstreut.

Konkret schauen die URLs so aus (Zugriff habe ich, nachdem ich mich zu Beginn einmal einlogge):
www.domain.com/xyz/1234/CAT
www.domain.com/xyz/1235/CAT
... bis ...
www.domain.com/xyz/1698/CAT
www.domain.com/xyz/1699/CAT

Ich bräuchte daher z.B. die Seiten 1234 bis 1699 lokal abgespeichert ... also dass dann diese 466 HTML-Seiten z.B. in einem Verzeichnis auf meiner Festplatte liegen.

Mit dem Browser einfach Seite für Seite per Hand aufrufen und mittels "Seite speichern unter" abspeichern funktioniert zwar problemlos, jedoch dauert es halt ewig.

Irgendwelche Tools oder Lösungsvorschläge wie das schneller funktioniert?

  •  gdfde
  •   Gold-Award
8.5.2018  (#1)
https://www.httrack.com/ sollte das können.

1
  •  streicher
  •   Gold-Award
8.5.2018  (#2)
Gibt z.B. das Firefox-Plugin Scrapbook

1
  •  Doki2
30.5.2018  (#3)
Hast du dein Problem gelöst?

1


  •  ildefonso
  •   Gold-Award
12.6.2018  (#4)
Danke für die Beiträge.

1

Thread geschlossen Dieser Thread wurde geschlossen, es sind keine weiteren Antworten möglich.

Nächstes Thema: Schlaflose Nächte (-;