Hallo Björn,
Gibt es ein anderes Archiviersystem, welches ihr mir stattdessen empfehlen würdet?
Ich verwende derzeit gern "bacula" - ne "richtige" Backupsoftware, dafür sollte man entweder etwas Zeit fürs Handbuch mitbringen oder schon Verständnis für Backups mit Pools usw. mitbrigen. Ich habe letzterse und so keine 2h gebraucht was Sinnvolles mit 2 Generationen auf 2 verschiedenen Medientypen zu sichern. Alternatv, wenns schnell gehen soll biete sich rsync an, wozu es mit rsnapshot ne ressourcensparende fast fertige Lösung gibt - vllt. ist das genau der richtige Einstieg für Dich sofern Dein Ziel irgendwie unixoid ist.
es "richtige" Backup-Programme, wenn sie von einem Live-System Daten sichern sollen?
Das kann man Pauschal nicht beantworten. Mnache arbeiten mit Snapshots von den zu sichernden Volumes, sie frieren also die Partition quasi ein, sichern den "Eiswürfel" während das OS in einen "Zwischenspeicher" arbeitet. Das muss aber das OS bzw. Storage unterstützen. Wieder andere auf Client/Serverbasis machen es im Grunde wie Du, einen Katalog aufbauen, was lokal verfügbar ist, ggf. mit dem Katalog der letzten Sicherung(en) vergleichen [incr. / diff.] und die benötigenten Resourcen berechnen um letztlich zu sichern. Andere wiederum, laufen nur linear oder parallelisiert durchs FS und nehmen was geht, ggf. gelocktes wird u.U. später noch einmal versucht. Wie Du siehst, gibt es eine Menge Möglichkeiten.
Der »find«-Prozess schluckt aufgrund der hohen Anzahl (kleiner) Dateien eine Menge Zeit.
Bist Du sicher, dass es hier "find" ist und nicht *bzip*"? Letzteres ist auch recht ressourcenhungrig. Natürlich kann aber auch Quelle oder Ziel am Flaschenhals hängen. Wenn Du auf ein linkverstehendes Dateisystem sicherst (remote oder lokal angeschlossen) versuche mal rsnapshot (sofern Du ausreichend Platz hast). Das vergleicht zuerst Listen der Quelle mit dem Ziel um zu erfahren was zu sichern wäre, dann überträgt es je nach Konfiguration nur Differenzen und von denen auch nur die geänderten Blöcke pro Datei. Eine Kompression ist da nicht (sinnvoll) möglich (weil ein *zip einer Textdatei ganz anders aussieht als das der selben Datei mit nur einem geänderten Byte). Aber dafür kannst Du am Ziel verhardlinkte Ordner nutzen und somit (ja nach Menge der zwischen den Sicherungen geänderten Daten) 3 Generationen mit 20 Versionen von Sicherungen mit dem doppelten Platzbedarf einer Vollsicherung haben (ein fiktives Beispiel!).
Für eine Vollsicherung von knapp 250 GB Daten haben wir mit dieser Methode 56 Stunden berechnet.
Viel zu lange! Miss doch mit 'time' in Deinem Skript mal, welcher Prozess die Zeit frisst. Miss auch mal Datentransferraten von der Quelle oder zum Ziel. Beobachte vllt. auch swap. Ich vermute hier noch ganz anderes Potential.
Mit freundlichen Grüßen / With kind regards Ronny Seffner -- OT Seeligstadt | web http://www.seffner.de Alter Viehweg 1 | mail ronny@seffner.de 01665 Triebischtal | fon/fax +49 35245 72-950/-9059 | mobiltelefon +49 174 9474439