hallo pitti,
backup-geschichten habe ich auch schon quick'n'dirty hingebastelt, sogar incrementelle backups: das ganze ordenlich zu machen - ja bitte!
- Speicherung auf Festplatte in einem "handelsüblichen" Format (tar, cpio, afio, etc.), so dass sie auf CDRW brennbar bzw. mit scp irgendwohin kopiert werden können
wie sonst (das rad neu-erfinden?), nett wärs wenn man die datein direkt auf band ablegen kann.. (muss nicht so bedacht werden, da tar/xxio das können sollte)
- Relativ einfaches und schnelles Wiederherstellen
nur im zug von incrementellen backups nötig, da es da etwas haarig werden kann.. vorallem wenn dann für eine datei ein medium erst komplett eingelesen werden muss, bzw alle incrementellen dateien vom remote-speicher importiert werde müssen(scp)
es sollte ein katalog mit allen datein erstellt werden um darin bestimmte auswählen zu können (gui ;-)
- Automatisches Anlegen inkrementeller Backups (bei mir: jeden Monat permanent, jede Woche volles Backup, täglich inkrementell)
- Automatischer Aufruf (cron, anacron, etc.), zur Not auch eigener Serverprozess
bitte nur cron!
- Unterstützung von Konfigurationsdateien in jedem Verzeichnis, die angeben, welche Dateien/Verzeichnisse einbezogen und/oder welche Dateien/Verzeichnisse ignoriert werden sollen.
es sollte überschreibende regeln geben. bsp: globales - ignore: .*/logs/.*
falls dann in dem logs-verzeichnis ein config liegt die angibt - backup: .*dashier.*x
sollen diese dateien beachtet werden.
- Wiederherstellung auch als User möglich (-> Rechteverwaltung)
egal - da entweder das backup komplett als der entsprechende user läuft, und damit auch nur die eigenen daten liest, oder der admin für backups verantwortlich ist.
ggf. sollten unter-backupjobs vom hauptbackup gestartet werden, die mit entsprechenden rechten laufen... (weiteres 8.plugins)
7. cpu-auslastung zum backup falls viele kleine datein archiviert werden, und dann evtl noch mit bz2 gepackt dauert das ganze recht lange und will 100% cpu, so habe ich auf einem server (mail) den effekt das tar pro tag für 2-3h beschäftigt ist. leider ändern sich zwischendurch dateien und tar meint gelegentlich -error: files changed while..
8. pluigin architektur - abhängige dienste datenbanken(spez. mysql) lassen sich nicht sichern falls der server läuft, varianten sind evtl. 'plugins' die entsprechende inhalt vor dem backup zusammenstellen und in ein backup-verzeichniss abzulegen. ein plugin sollte dann auch sein dateien sichern, so lassen sich die rechte-probleme beseitigen.
- main-backup-process (user: root) - plugin mysql (user: mysqld) -> /tmp/mysqldumps - plugin backup (user: mysqld) backup: /tmp/mysqldumps - plugin backup (user: mail) backup: /var/vmail .. - plugin backup (user: root) backup: /home
problematisch sind dann abhängigkeiten, was ist wenn mysql-vorbereiten fehlschlägt..
Nach den Prüfungen wollte ich mich mal dranmachen, mein existierendes System aufzubohren. Ich wollte es gleich "richtig" machen, weil es anscheinend zwar Backup-Programme wie Sand am Meer gibt, aber keins, was obige Anforderungen erfüllt (im Debian nicht und im Web hab ich auch nichts gefunden).
prüfungen - leidiges thema..
in welcher sprache schägst du das ganze vor, bash/perl/python?
gruss thomas