Hallo,
@Ronny und Bernhard: Vielen Dank
Das Problem ist, dass sich die ganze Situation doch etwas schwieriger gestaltet. Derzeit gibt es zig-Millionen kleine (proprietäre, binäre) Dateien, die gesichert werden müssen. Jeden Tag kommen einige Tausende hinzu. Aufgrund von Performance-Schwierigkeiten werden tägliche Backups so erstellt, dass eine MySQL-Datenbank nach neu angelegten Datensätzen befragt wird. Dort wird auch ersichtlich, welche Dateien hinzugekommen sind. Anschließend wird aus diesen Informationen eine Liste von Dateinamen generiert. Die Liste wird an tar übergeben (siehe vorherige E-Mail). Wenn nun eine Vollsicherung gemacht werden soll, braucht die Datenbank nicht befragt werden, aber alle Verzeichnisse und Unterverzeichnisse (mehrstufige Struktur) werden nach Dateien durchsucht. Auch leere Verzeichnisse müssen gesichert werden. rsnapshot läuft bei uns bereits und würde in einer Nacht nicht fertig werden, vom entfernten System die Daten zu beziehen. Daher werden die beschriebenen Sicherungsvorgänge alle auf dem entfernten System durchgeführt und nächtlich holt sich das externe Sicherungssystem die Daten, die bereits vorliegen. Das System ist eigentlich sehr schnell, darf aber durch Sicherungsvorgänge nicht ausgebremst werden. (16 GB RAM, 450 GB SAS-HDD 15krpm, Quad Core)
Mit Änderungen während eines Backupvorgangs muß man leben können (ggf. eben auch 2>/dev/null :-) ).
Leider lassen die Fehlermeldungen den gesamten Vorgang abbrechen, also ist danach die Sicherung nutzlos.
Vielleicht fällt euch da noch etwas ein.
Gruß
Björn