Ich mache zur Zeit mein Backup auf eine zweite Platte die ich als /mnt gemountet habe:
rsync -avx --delete-excluded --exclude '/tmp' --exclude '/var/tmp' \
--exclude '/var/cache' --exclude '/var/run' --exclude '/var/spool' / /mnt
a: archive-mode (preserve owner...) v: verbose x: stay on this filesystem (don't backup /proc)
Ich finde das mit rsync sehr clever, weil immer nur die Daten kopiert werden, die sich veraendert haben.
Gibt es eine Moeglichkeit /mnt zu komprimieren? Man koennte ein loopbackdevice erstmal in eine Datei schreiben, und die anschliessend komprimieren.
Man koennte "/" zu einem tgz machen, aber dann geht es nicht mehr, dass nur die Dateien aktualisiert werden die sich veraendert haben.
Leider gibt es bei linuxdoc.org noch kein Backup-Howto.
On Fri Mar 23, 2001 at 20:32:15 +0100, Thomas Guettler wrote:
Ich mache zur Zeit mein Backup auf eine zweite Platte die ich als /mnt gemountet habe:
rsync -avx --delete-excluded --exclude '/tmp' --exclude '/var/tmp' \
--exclude '/var/cache' --exclude '/var/run' --exclude '/var/spool' / /mnt
a: archive-mode (preserve owner...) v: verbose x: stay on this filesystem (don't backup /proc)
Ich finde das mit rsync sehr clever, weil immer nur die Daten kopiert werden, die sich veraendert haben.
Gibt es eine Moeglichkeit /mnt zu komprimieren? Man koennte ein loopbackdevice erstmal in eine Datei schreiben, und die anschliessend komprimieren.
Das sieht IMHO eher schlecht aus, da rsync keinen gzip-support hat. Evtl. kannst Du Dir da selber was basteln, indem Du Dir mittels find eine Liste aller zu sichernden Files erstellst, die aus dem Backup gunzip'st, rsync'st und wieder gzip'st.
Mit tar.gz's anfangen, ist wohl wenig sinnvoll, da es mehr Aufwand erfordert (Deinen und den vom Rechner bei jedem Backup) und, zumindest temporaer, mehr Plattenplatz als das Original beansprucht. Mit cpio koennte man hier bestimmt effektiver sein, aber das musz man auch erstmal niederschreiben...
Adam
Hallo Thomas,
vielleicht hilft Dir das weiter - ist allerdings eine Sicherung einer ganzen Partition.
sichern: dd if=/dev/hda1 | gzip > imagehda1.gz rücksichern: gunzip -c imagehda1.gz | dd of=/dev/hda1
oder eine ganze Festplatte
sichern: dd if=/dev/hda | gzip > festplatte_1.gz rücksichern: gunzip -c festplatte2.gz | dd of=/dev/hda
ACHTUNG ! ! ! das Image-File kann eine Größe von 2GB nicht übersteigen, hängt irgendwie mit dem Filesystem zusammen (vielleicht ist diese Problem auch schon behoben ? )
Gruß Tilo
Am Samstag, 24. März 2001 13:06 schrieb Tilo Wetzel - PENTACON GmbH:
ACHTUNG ! ! ! das Image-File kann eine Größe von 2GB nicht übersteigen, hängt irgendwie mit dem Filesystem zusammen (vielleicht ist diese Problem auch schon behoben ? )
Mit Kernel 2.4.
cu Konrad
On Sat Mar 24, 2001 at 15:53:24 +0100, Konrad Stopsack wrote:
Am Samstag, 24. März 2001 13:06 schrieb Tilo Wetzel - PENTACON GmbH:
ACHTUNG ! ! ! das Image-File kann eine Größe von 2GB nicht übersteigen, hängt irgendwie mit dem Filesystem zusammen (vielleicht ist diese Problem auch schon behoben ? )
Mit Kernel 2.4.
Das reicht nicht.
Adam
On Sat Mar 24, 2001 at 16:15:51 +0100, Tilo Wetzel - PENTACON GmbH wrote:
hängt irgendwie mit dem Filesystem zusammen (vielleicht ist diese Problem auch schon behoben ? )
Mit Kernel 2.4.
hört sich gut an - und wie groß ist hier die maximale Filegröße ?
2TB
Adam
Adam Lackorzynski wrote:
On Sat Mar 24, 2001 at 16:15:51 +0100, Tilo Wetzel - PENTACON GmbH wrote:
hängt irgendwie mit dem Filesystem zusammen (vielleicht ist diese Problem auch schon behoben ? )
Mit Kernel 2.4.
hört sich gut an - und wie groß ist hier die maximale Filegröße ?
2TB
Das dürfte die nächsten 14Tage reichen :-)
Tilo
lug-dd@mailman.schlittermann.de