Webseite mit Midifiles komplett kopieren

MDS

MDS

||
Hey Leute!

Hier gibt es ja schon seit Jahren viele Midifiles, gerade die ganzen Demomidis diverser Soundmodule:

http://andrelouis.com/midi/

Nun die dumme Frage, wie kann man sich das mal backupen ohne jede Datei einzeln anzuklicken, brauch ich da Tools dazu, gabs nicht früher sowas wie getright oder gehts auch einfacher? :)

Grüße
 
Es gibt tools die speichern alle webseiten die verlinkt sind. Ist bei Linux immer dabei gewesen.. Leider ist mir der Name entfallen. Heist sowas crawler ?
 
Ich hatte sowas früher auch mal genutzt, allerdings weiß ich den Namen von dem Teil nicht mehr. Ich weiß nur noch das es kostenlos war - Site Eater war es jedenfalls nicht. Ich suche nachher mal in meinem Bestand, vielleicht habe ich das ja noch.

Nachtrag:
Ich habe es bei mir gefunden. Nennt sich Web Downloader. Habe das aber echt lange nicht mehr benutzt, von daher kann ich dazu nichts mehr sagen.
 
Das Suchstichwort heißt Site-Grabber


Achja: ftp-Clients wie Filezilla, sollten mit so eine http-Site die filelisting erlaubt auch arbeiten können. Da kannst Du dann alle Ordner markieren und in einem Schwung zu Dir herziehen.
 
Moin!
Also mit dem uralten Win98 Webdownlader ging das schon perfekt, dauerte aber fast den halben Tag! :)

Danke für die Tipps! :)
 
Unter Windows könnte CURL einen Versuch wert sein:

https://curl.haxx.se/

Na ja, das ist so komplex, man muss es wohl 2 oder 3 mal versuchen, bis man das geladen hat, was man will :floet:

Ist aber sehr nützlich - benutzen wir auch "auf Arbeit" für automatiserte Downloads.
 


Neueste Beiträge

News

Zurück
Oben