Hallo,
[Umgebung: Debian Squeeze, Multi-User, rollende Schichten]
ein Teil der werten Anwenderschaft vergißt regelmäßig, nach getaner Arbeit ihre Gnome-Sitzung abzumelden.
Folge ist, daß die Clients so lange durchlaufen, bis mal wieder alle Benutzer abgemeldet sind und sich jmd. erbarmt, die Kisten auszuschalten.
Ich mach mir also Gedanken um Lebensdauer und Stromverbrauch.
Das Dilemma:
Die Systemrichtlinie von Squeeze, daß bei angemeldetem Benutzer (oder Admin) Herunterfahren nicht möglich ist, finde ich grundsätzlich positiv und will sie daher nicht ändern. Lenny war ja da weniger zimperlich...
Eine 'egal-was-ist'-Abschaltung mit Admin-Rechten habe ich bislang vermieden - ich befürchte Mehraufwand, falls Dokumente nicht gespeichert sind oder Sitzungen zerschossen werden.
Appelle, die Vergeßlichkeit abzustellen, fruchteten bislang nicht ;-)
Meine Fragen:
Was passiert mit einer offenen Sitzung, wenn Admin abschaltet?
Wie hoch ist die Wahrscheinlichkeit von Komplikationen (abgesehen von ungespeicherten Dokumenten, die mglw. aber auch vernachlässigbar sind)?
Kennt jemand eine saubere Lösung für diese Gemengelage?
Danke & Grüße,
Bernhard
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1
Hallo Bernhard,
zum abschalten fiele mir noch der Tiefschlaf nach Zeit x ein... damit vermeidest du fehlende Dokumente und sparst gleichzeitig Strom.
Am 29.11.2011 09:21, schrieb Bernhard Bittner:
Hallo,
[Umgebung: Debian Squeeze, Multi-User, rollende Schichten]
ein Teil der werten Anwenderschaft vergißt regelmäßig, nach getaner Arbeit ihre Gnome-Sitzung abzumelden.
Folge ist, daß die Clients so lange durchlaufen, bis mal wieder alle Benutzer abgemeldet sind und sich jmd. erbarmt, die Kisten auszuschalten.
Ich mach mir also Gedanken um Lebensdauer und Stromverbrauch.
Das Dilemma:
Die Systemrichtlinie von Squeeze, daß bei angemeldetem Benutzer (oder Admin) Herunterfahren nicht möglich ist, finde ich grundsätzlich positiv und will sie daher nicht ändern. Lenny war ja da weniger zimperlich...
Eine 'egal-was-ist'-Abschaltung mit Admin-Rechten habe ich bislang vermieden - ich befürchte Mehraufwand, falls Dokumente nicht gespeichert sind oder Sitzungen zerschossen werden.
Appelle, die Vergeßlichkeit abzustellen, fruchteten bislang nicht ;-)
Meine Fragen:
Was passiert mit einer offenen Sitzung, wenn Admin abschaltet?
Wie hoch ist die Wahrscheinlichkeit von Komplikationen (abgesehen von ungespeicherten Dokumenten, die mglw. aber auch vernachlässigbar sind)?
Kennt jemand eine saubere Lösung für diese Gemengelage?
Danke & Grüße,
Bernhard
_______________________________________________ Lug-dd maillist - Lug-dd@mailman.schlittermann.de https://ssl.schlittermann.de/mailman/listinfo/lug-dd
- -- Mit freundlichen Grüßen / With kind regards
Jan Leonhardt
IT-Dienstleistungen IT-Konsultant Administration Softwareentwicklung
Am 29.11.2011, 09:57 Uhr, schrieb Jan Leonhardt jan@cyberdesigner.net:
Hallo mitnander,
snip
zum abschalten fiele mir noch der Tiefschlaf nach Zeit x ein... damit vermeidest du fehlende Dokumente und sparst gleichzeitig Strom.
und vielen Dank für die zahlreichen Anregungen. Den Tiefschlaf hab ich gleich als 'erste Hilfe' genommen. Funktioniert zwar nicht immer laut munin-log, aber besser als Dauerlauf...
Normalerweise rechnet da niemand Dinge über Nacht (das Einsatzgebiet ist überwiegend Text+Internet+Foto), aber daß jemand seine Sitzung über die Nachtbereitschaft (da hab ich mglw. mit 'rollende Schichten' einen falschen Eindruck erweckt) erhalten haben will, kommt vor.
Somit kann man mit pm-hibernate nix falsch machen :-).
Die anderen Vorschläge werde ich noch durchdenken und das Thema Systemrichtlinien mit den Kollegen durchkauen.
snip
Grüße,
Bernhard
Hallo,
ich brauche ein cron-job skript, dass mir alle Dateien eines Ordners samt aller Dateien in dazugehörigen Unterordnern in den Rechten bearbeitet.
Da ich es nicht kann und ehrlich gesagt nicht lernen möchte würde ich gern lieber meine Arbeitszeit gegen die eines Andern tauschen ( bin Tischler in eigener Tischlerei da findet sich sicher was ... :)
Hintergrund : Ich betreibe einen Datenserver auf dem ca 20 Menschen per Webdav Dateien gemeinsamm nutzen. ( Ubuntu 10.04 Apache 2) SIe sollen Ordner anlegen können und und versehntlich falsch abgelegte Dateien noch mal verschieben können. Täglich soll dann jener Cronjob zu allen neuen Datein die Schreibreibrechte des www-data in nur noch Leserechte ändern, damit keiner aus versehen oder in unguter Motivation alles löschen kann.
hat wer Zeit dafür ?
Joe
Hallo,
Da ich es nicht kann und ehrlich gesagt nicht lernen möchte würde ich gern lieber meine Arbeitszeit gegen die eines Andern tauschen ( bin Tischler in eigener Tischlerei da findet sich sicher was ... :)
Das ist doch mal ein ehrliches Angebot ;-) Aber den Hobel wirst du wohl trotzdem auf der Werkbank liegen lassen können.
ich brauche ein cron-job skript, dass mir alle Dateien eines Ordners samt aller Dateien in dazugehörigen Unterordnern in den Rechten bearbeitet.
Das "Skript", was genau dies tut, fällt nämlich sehr einfach aus (verdammt, jetzt habe ich es verraten und kann nicht mehr auf hohe Bezahlung für meine Trivialantwort hoffen (-:
chmod /daten/meiner/nutzerhorde/ a-r -R
(chmod ... Rechte ändern, a ... alle, - ... entziehen (wie in Mathe), r ... read=lesen, -R ... rekursiv in Unterverzeichnisse gehen)
Es löst aber dein Problem nicht.
Hintergrund : Ich betreibe einen Datenserver auf dem ca 20 Menschen per Webdav Dateien gemeinsamm nutzen. ( Ubuntu 10.04 Apache 2) SIe sollen Ordner anlegen können und und versehntlich falsch abgelegte Dateien noch mal verschieben können. Täglich soll dann jener Cronjob zu allen neuen Datein die Schreibreibrechte des www-data in nur noch Leserechte ändern, damit keiner aus versehen oder in unguter Motivation alles löschen kann.
Achtung, erstmal nicht intuitiv: Um eine Datei zu löschen oder verschieben zu können benötigt man keine Schreibrechte auf der Datei, sondern auf dem Verzeichnis, in dem die Datei sich befindet.
Welche Rechte die Dateien haben ist also erstmal egal.
Nun könnte man ja an sich jeden Abend die Rechte der Verzeichnisse auf 'nicht schreibbar für www-data' setzen. Allerdings muss der www-data ja schreiben können, um neue Dateien anzulegen.
Das Gewünschte ist also auf diesem Wege nicht realisierbar.
Simple Alternative wäre: Jeder Benutzer bekommt einen eigenen Account und ein eigenes Verzeichnis, das ihm gehört und in das nur er schreiben darf (die anderen dürfen es allenfalls lesen). Das würde dann das Gewünschte leisten (soweit aus dem kurzen Hintergrundabriss ersichtlich). Das wäre auch deutlich geeigneter, um einzelnen potentiell böswilligen Nutzern böse Taten zu verunmöglichen.
Viele Grüße Fabian
On 12/09/2011 11:49 PM, Fabian Hänsel wrote:
chmod /daten/meiner/nutzerhorde/ a-r -R
(chmod ... Rechte ändern, a ... alle, - ... entziehen (wie in Mathe), r ... read=lesen, -R ... rekursiv in Unterverzeichnisse gehen)
Es muss natürlich -w heißen, um die write=Schreibrechte zu entziehen.
Hallo Fabian,
DU :
Achtung, erstmal nicht intuitiv: Um eine Datei zu löschen oder verschieben zu können benötigt man keine Schreibrechte auf der Datei, sondern auf dem Verzeichnis, in dem die Datei sich befindet.
ups .. damit verunsicherst du einen zugegeben noch neuen in der Server Welt.
das muß ich mal bei Gelegenheit testen Widerspricht meiner Erfahrung. Es geht nicht um http per Firefox in ein Verzeichnis schauen sondern um Webdav.
Das heist www-data ist Quatsch es geht um die Rechte des dav_user
DU :
Simple Alternative wäre: Jeder Benutzer bekommt einen eigenen Account und ein eigenes Verzeichnis, das ihm gehört und in das nur er schreiben darf (die anderen dürfen es allenfalls lesen). Das würde dann das Gewünschte leisten (soweit aus dem kurzen Hintergrundabriss ersichtlich). Das wäre auch deutlich geeigneter, um einzelnen potentiell böswilligen Nutzern böse Taten zu verunmöglichen.#
simpel ist wiedern mal schön ... :) mehrerer Davuser anlegen kann ich, aber denen noch Ordner zuweisen in denen sie schreiben dürfen ? hmm Muß ich den Hobel doch scharf machen ?
meine www.webmystik.de in etc/apache2/sites-enabled
siht so aus :
--------------------------------------------------------------------------------------------
<VirtualHost *:80> ServerAdmin info@******** ServerName ****** ServerAlias *.********* DocumentRoot /var/www/*************** <Directory /> Options FollowSymLinks # AllowOverride None </Directory>
<Directory /var/www/*************> Options +Indexes +FollowSymLinks +MultiViews # AllowOverride None Order allow,deny allow from all </Directory> Alias /dav /var/www/*******
<Location /dav> DAV On Options +Indexes AuthType Basic AuthName DAV AuthUserFile /var/www/passwd_dav_www.webmystik.de Require valid-user </Location>
ScriptAlias /cgi-bin/ /usr/lib/cgi-bin/ <Directory "/usr/lib/cgi-bin"> AllowOverride None Options +ExecCGI -MultiViews +SymLinksIfOwnerMatch Order allow,deny Allow from all </Directory>
ErrorLog /var/log/apache2/error.log
# Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. LogLevel warn
CustomLog /var/log/apache2/access.log combined
</VirtualHost>
--------------------------------------------------------------------------
lege ich für jeden Benutzer einen Eintrag ein und wie siht der aus ? mit Baujahr 72 ist mein englisch leider so schlächt das ich mit den engl. Apache FAQ s nicht weiter komme.
Gruß Joe
Hallo Joe,
Joe j.schraube@web.de (Fr 09 Dez 2011 23:07:34 CET):
ich brauche ein cron-job skript, dass mir alle Dateien eines Ordners samt aller Dateien in dazugehörigen Unterordnern in den Rechten bearbeitet.
Da ich es nicht kann und ehrlich gesagt nicht lernen möchte würde ich gern lieber meine Arbeitszeit gegen die eines Andern tauschen ( bin Tischler in eigener Tischlerei da findet sich sicher was ... :)
Hintergrund : Ich betreibe einen Datenserver auf dem ca 20 Menschen per Webdav Dateien gemeinsamm nutzen. ( Ubuntu 10.04 Apache 2) SIe sollen Ordner anlegen können und und versehntlich falsch abgelegte Dateien noch mal verschieben können. Täglich soll dann jener Cronjob zu allen neuen Datein die Schreibreibrechte des www-data in nur noch Leserechte ändern, damit keiner aus versehen oder in unguter Motivation alles löschen kann.
Man könnte die Gefahr etwas einschränken, wenn man für jeden virtuellen Host den Apachen unter einer eigenen UID laufen läßt. Dann sind die „Nachbar-Hosts“ nicht mehr gefährdet.
Zu Deiner Problematik: Auf Dateien die Schreibrechte löschen, verhindert noch nicht das Löschen, nur eben das Beschreiben… Du müßtest auf den Ordnern die Schreibrechte entfernen, aber dann kann dort niemand mehr etwas reinlegen. Du könntest mit „chattr(1)“ arbeiten, damit ginge das wohl zu realisieren.
Jetzt hast Du immer noch keinen Script… sondern nur weitere Aufgaben ☺ Vielleicht genügt auch einfach ein funktionierendes Backup und die Rechte bleiben, wie sie sind?
Hallo, unter dem Betreff : " per Cron-Job einmal am Tag Rechte von Dateien ändern " hab ich über Liste erfahren was an der Idee nicht funktioniert.
Da einige Leute nun schon voll Vorfreude auf eine Einladung zum Server warten und ich mir immer nocht nicht ganz klar bin, was die eleganteste Lösung ist, wende ich mich noch mal an die Liste.
Ziel des Projektes ist so was wie ein koll. genutztes Drobbox, ein Datenserver der per WebDav für eine Gruppe von 20 - 100 Leuten einen Webspeicher für interessantes und Bewahrenswertes bereitstellt. ( Vorträge Dokus Spielfilme Musik ) ob man dann den Unterhaltungs Aspekt zugunsten des Inhaltlichwertvollem beschränkt wird oder mehr Webspace gemietet wird, ist offen . Ich zahle und stelle 3TB.
Da die Juser selbständig Ordner anlegen können sollen müssen sie Schreibrechte haben, die Sammlung ist aber auf vor absichtlichem oder versehntlichem Löschen zu schützen.
Meine Idee jede Nacht auf hochgestellte Daten die Schreibrechte zu entzihen hat sich als nicht so einfach rausgestellt - ich müsste mein ext4 Dateisysthem um etweas erweitern was das dann kann - wenn ichs richtig verstanden hab.
Noch eine Idee habe ich : Ein Skript könnte jede Nacht zu jeder neuen Datei einen Hardlink in ein Verzeichnis setzten das vom Webdav aus nicht erreichbar ist.
( cp -l QUELLE ZIEL )
Wenn ich das mit den Hardlinlks unter Linux richtig verstanden habe, ist eine Datei erst gelöscht wenn beide links gelöscht sind, beide sind gleichwertig und nicht von einander abhängig.
falls jemand die Lust hatte bishier her zu lesen : ist das ne gute Idee ? funzt das so ?
Idealerweise werden die Hardlinks zu allen neuen Dateien nicht in einen Ordner geworfen sondern noch in ein gespiegeltest System von Ordnern und Dateien ......
Solte jemand interesse an dem Projekt haben ( Nutzen oder einen Tip geben ) freu ich mich sehr, die Leute die es Nutzen wollen sind mehrheitlich eher PC Laien.
Gruß Joe
Hi,
On Monday 26 December 2011, Joe wrote:
Ziel des Projektes ist so was wie ein koll. genutztes Drobbox, ein Datenserver der per WebDav für eine Gruppe von 20 - 100 Leuten einen Webspeicher für interessantes und Bewahrenswertes bereitstellt.
Sollte soweit machbar sein.
( Vorträge Dokus Spielfilme Musik )
Ich kann nur hoffen dass es Mechanismen gibt um sicherzustellen dass das auch legale Inhalte sind...
Bei 20-100 Leuten kannst Du Dich beim besten Willen nicht mehr auf Privatkopie berufen.
Da die Juser selbständig Ordner anlegen können sollen müssen sie Schreibrechte haben, die Sammlung ist aber auf vor absichtlichem oder versehntlichem Löschen zu schützen.
Die klassische Lösung ist es ein Inbox-Verzeichnis zu bauen auf dem alle schreiben dürfen und dann jemanden (oder ein Script) zu haben, der/das die Dateien in den read-only-Bereich kopiert.
Meine Idee jede Nacht auf hochgestellte Daten die Schreibrechte zu entzihen hat sich als nicht so einfach rausgestellt - ich müsste mein ext4 Dateisysthem um etweas erweitern was das dann kann - wenn ichs richtig verstanden hab.
Noch eine Idee habe ich : Ein Skript könnte jede Nacht zu jeder neuen Datei einen Hardlink in ein Verzeichnis setzten das vom Webdav aus nicht erreichbar ist.
Auch eine Möglichkeit.
( cp -l QUELLE ZIEL )
Wenn ich das mit den Hardlinlks unter Linux richtig verstanden habe, ist eine Datei erst gelöscht wenn beide links gelöscht sind, beide sind gleichwertig und nicht von einander abhängig.
Korrekt.
Konrad
Joe j.schraube@web.de (Mo 26 Dez 2011 12:26:29 CET): (…)
Wenn ich das mit den Hardlinlks unter Linux richtig verstanden habe, ist eine Datei erst gelöscht wenn beide links gelöscht sind, beide sind gleichwertig und nicht von einander abhängig.
falls jemand die Lust hatte bishier her zu lesen : ist das ne gute Idee ? funzt das so ?
Korrekt.
Idealerweise werden die Hardlinks zu allen neuen Dateien nicht in einen Ordner geworfen sondern noch in ein gespiegeltest System von Ordnern und Dateien ......
Das ist etwa das, was rsnapshot tut, dafür muß dann eigentlich kein Programm/Script/what ever geschrieben werden. rsnapshot nutzt rsync, hat aber nicht zwingend etwas mit „r“ (remote) zu tun.
Hallo Heiko
das mit rsnapshot klingt sehr gut. Im Wiki steht :
Ein Vorteil von rsnapshot ist, dass die unveränderten Dateien und
Verzeichnisse nur einmal gesichert werden. In allen weiteren Snapshots wird lediglich ein Hardlink auf die vorhandene Datei gesetzt. >>>>>
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts kopieren. Im ersten lesen des wiki habe ich da keine Einstellung gesehen oder beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem selben Laufwerk liegen ?
Gruß und vielen Dank für den Tip
Joe j.schraube@web.de (Di 27 Dez 2011 15:46:43 CET):
Hallo Heiko
das mit rsnapshot klingt sehr gut. Im Wiki steht :
Ein Vorteil von rsnapshot ist, dass die unveränderten Dateien und
Verzeichnisse nur einmal gesichert werden. In allen weiteren Snapshots wird lediglich ein Hardlink auf die vorhandene Datei gesetzt. >>>>>
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts kopieren. Im ersten lesen des wiki habe ich da keine Einstellung gesehen oder beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem selben Laufwerk liegen ?
Das weiß ich auch nicht. Käme auf einen Versuch oder einen Blick in den Quelltext an.
Am 27.12.2011 15:46, schrieb Joe:
Hallo Heiko
das mit rsnapshot klingt sehr gut. Im Wiki steht :
Ein Vorteil von rsnapshot ist, dass die unveränderten Dateien und
Verzeichnisse nur einmal gesichert werden. In allen weiteren Snapshots wird lediglich ein Hardlink auf die vorhandene Datei gesetzt. >>>>>
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts kopieren. Im ersten lesen des wiki habe ich da keine Einstellung gesehen oder beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem selben Laufwerk liegen ?
das bedeutet aber, daß auch die "Kopie" zerstört ist wenn der Inhalt des "Originals" gelöscht wird. rsnapshot hat hier den Vorteil, daß bei Veränderungen des Inhalts beide Versionen vorliegen, zumindest solange, bis das älteste Backup gelöscht wird. Den Zugriff auf die Backups kann man readonly freigeben.
Gruß Rico
Hallo Rico,
ich verstehe dein Post nicht sofort. Wenn du mit zerstören verändern meinst verstehe ich dich. Da es vornähmlich um *.mp3 *.avi und *.pdf geht ist das weniger realistisch.
ich werde den Weg den probierens wählen. Sichern und schauen ob die Daten auf der Platte um relavante Beträge zunehemen oder nicht.
Dank und Gruß Joe
Am 27.12.2011 20:27, schrieb Joe:
Hallo Rico,
ich verstehe dein Post nicht sofort. Wenn du mit zerstören verändern meinst verstehe ich dich. Da es vornähmlich um *.mp3 *.avi und *.pdf geht ist das weniger realistisch.
Dann ist das weniger relevant. Ich bin davon ausgegangen, daß hier auch Textdateien und Tabellen dabei sind, die auch inhaltlich verändert werden könnten. Sollte aber eine gleichnamige Datei abgelegt werden, besteht immer noch das Risiko des Überschreibens.
Gruß Rico
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts kopieren.
Im ersten lesen des wiki habe ich da keine Einstellung gesehen oder beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem selben Laufwerk liegen ?
bei gleichen Laufwerk wird er mit Hardlinks starten
das bedeutet aber, daß auch die "Kopie" zerstört ist wenn der Inhalt des "Originals" gelöscht wird.
nein das stimmt so bei Hardlinks nicht
die Daten sind erst weg wenn alle verweise auf die Daten weg sind
rsnapshot hat hier den Vorteil, daß bei Veränderungen des Inhalts beide Versionen vorliegen, zumindest solange, bis das älteste Backup gelöscht wird. Den Zugriff auf die Backups kann man readonly freigeben.
nein (oder du hast dich unglücklich ausgedrückt)
eine Datei v1 wird heute in geändert v2 (tägliche Sicherung (20Uhr) vorhalte zeit 7 tage) dann existiert im backupbaum beide versionen solange bis die letzte sicherung mit v1 gelöscht wird, das währe die sicherung vom 29.12 am 6.1 -nach der Sicherung- würde es dann nur noch v2 geben
Andreas
Am 30.12.2011 11:44, schrieb Grimnin Fridyson:
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts kopieren.
Im ersten lesen des wiki habe ich da keine Einstellung gesehen oder beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem selben Laufwerk liegen ?
bei gleichen Laufwerk wird er mit Hardlinks starten
Was ist ein "Laufwerk" (Festplatte oder Partition)? Das kann leicht zu Mißverständnissen führen. Hardlinks funktionieren nur auf der selben *Partition*.
das bedeutet aber, daß auch die "Kopie" zerstört ist wenn der Inhalt des "Originals" gelöscht wird.
nein das stimmt so bei Hardlinks nicht
die Daten sind erst weg wenn alle verweise auf die Daten weg sind
Doch, das stimmt so. Wenn eine Datei durch 2 Hardlinks als "Original" und "Kopie" (=Backup) existieren und der *Inhalt* von "Original" verändert wird, so wird auch der Inhalt von "Kopie" geändert. Somit ist der ursprüngliche Inhalt (Zustand vor der Veränderung) verloren.
rsnapshot legt in diesem Falle eine neue Datei an, um das zu verhindern.
Ein 'cp' überschreibt den Inhalt, 'echo' auch: ~/tmp$ echo test > original.txt ~/tmp$ ln original.txt kopie.txt ~/tmp$ echo neu > neu.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 5 2011-12-30 11:40 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 5 2011-12-30 11:40 original.txt ~/tmp$ cp neu.txt original.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 4 2011-12-30 11:41 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 4 2011-12-30 11:41 original.txt ~/tmp$ echo anders > original.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 7 2011-12-30 11:43 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 7 2011-12-30 11:43 original.txt
Ich spar mir das cat, die Veränderung ist ja schon an der Dateigröße sichtbar.
Ich bin mir nicht sicher, ob beim Überschreiben via FTP, SMB, SCP oder NFS immer zuerst die Datei (Hardlink) gelöscht wird und eine neue angelegt oder ob u.U. der vorhandene Inhalt überschrieben wird.
rsnapshot hat hier den Vorteil, daß bei Veränderungen des Inhalts beide Versionen vorliegen, zumindest solange, bis das älteste Backup gelöscht wird. Den Zugriff auf die Backups kann man readonly freigeben.
nein (oder du hast dich unglücklich ausgedrückt)
Nur unvollständig, das kommt wieder auf Weg des Zugriffs an. Im von mir praktizierten Fall handelte es sich um SMB-Freigaben. Der Zugriff auf die Backups wurde nur readonly erlaubt. Somit konnte jeder Benutzer, der auch in der normalen Freigabe Zugriff hatte, ein Backup wieder zurückholen.
Mit NFS und WebDAV sollte das auch einzurichten sein. Bei FTP und SCP fällt mir keine saubere Lösung ein, da die Rechte auf Dateisystemebene für alle Hardlinks identisch sind.
~/tmp$ chmod o-r kopie.txt ~/tmp$ ls -li total 12 9936954 -rw-r----- 2 rico rico 4 2011-12-30 11:43 kopie.txt 9936955 -rw-r--r-- 1 rico rico 7 2011-12-30 11:41 neu.txt 9936954 -rw-r----- 2 rico rico 4 2011-12-30 11:43 original.txt
eine Datei v1 wird heute in geändert v2 (tägliche Sicherung (20Uhr) vorhalte zeit 7 tage) dann existiert im backupbaum beide versionen solange bis die letzte sicherung mit v1 gelöscht wird, das währe die sicherung vom 29.12 am 6.1 -nach der Sicherung- würde es dann nur noch v2 geben
Ach das meintest du, ja das war unglücklich ausgedrückt. Sollte heißen, solange bis die ältere Version hinten aus dem Backup rausfällt. Ich wollte damit eigentlich sagen, daß die Kopie=Backup bei rsnapshot kein ewiges Leben hat. Dafür wäre ein CVS geeigneter.
Rico
----- Ursprüngliche Message -----
Von: Rico Koerner rico@netbreaker.de An: lug-dd@mailman.schlittermann.de Cc: Gesendet: 13:06 Freitag, 30.Dezember 2011 Betreff: Re: gemeinschaftlich genutzter Datenserver
Am 30.12.2011 11:44, schrieb Grimnin Fridyson:
Nun möchte ich die Daten - nur - per Hardlink sichern, nichts
kopieren.
Im ersten lesen des wiki habe ich da keine Einstellung gesehen
oder
beginnt es automatisch mit Hardlinks wenn Quelle und Ziel auf dem
selben
Laufwerk liegen ?
bei gleichen Laufwerk wird er mit Hardlinks starten
Was ist ein "Laufwerk" (Festplatte oder Partition)? Das kann leicht zu Mißverständnissen führen. Hardlinks funktionieren nur auf der selben *Partition*.
das bedeutet aber, daß auch die "Kopie" zerstört ist wenn der
Inhalt
des "Originals" gelöscht wird.
nein das stimmt so bei Hardlinks nicht
die Daten sind erst weg wenn alle verweise auf die Daten weg sind
Doch, das stimmt so. Wenn eine Datei durch 2 Hardlinks als "Original" und "Kopie" (=Backup) existieren und der *Inhalt* von "Original" verändert wird, so wird auch der Inhalt von "Kopie" geändert. Somit ist der ursprüngliche Inhalt (Zustand vor der Veränderung) verloren.
ja da hast du recht , du hast vom löschen geschrieben. Egal welchen Hardlink ich editiere es werden Daten geändert
rsnapshot legt in diesem Falle eine neue Datei an, um das zu verhindern.
Ein 'cp' überschreibt den Inhalt, 'echo' auch: ~/tmp$ echo test > original.txt ~/tmp$ ln original.txt kopie.txt ~/tmp$ echo neu > neu.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 5 2011-12-30 11:40 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 5 2011-12-30 11:40 original.txt ~/tmp$ cp neu.txt original.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 4 2011-12-30 11:41 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 4 2011-12-30 11:41 original.txt ~/tmp$ echo anders > original.txt ~/tmp$ ls -li total 12 9936954 -rw-r--r-- 2 rico rico 7 2011-12-30 11:43 kopie.txt 9936955 -rw-r--r-- 1 rico rico 4 2011-12-30 11:41 neu.txt 9936954 -rw-r--r-- 2 rico rico 7 2011-12-30 11:43 original.txt
Ich spar mir das cat, die Veränderung ist ja schon an der Dateigröße sichtbar.
klar da habe ich dich wie oben schon geschrieben anders verstanden
eine Datei v1 wird heute in geändert v2 (tägliche Sicherung (20Uhr) vorhalte zeit 7 tage) dann existiert im backupbaum beide versionen solange bis die letzte
sicherung mit v1 gelöscht wird, das währe die sicherung vom 29.12 am 6.1 -nach der Sicherung- würde es dann nur noch v2 geben
Ach das meintest du, ja das war unglücklich ausgedrückt. Sollte heißen, solange bis die ältere Version hinten aus dem Backup rausfällt. Ich wollte damit eigentlich sagen, daß die Kopie=Backup bei rsnapshot kein ewiges Leben hat. Dafür wäre ein CVS geeigneter.
CVS oder man stellt es ins internet das geht es auch nie wieder verloren :-)
oder irgend eine andere Form von Archiv
Andreas
Rico
Lug-dd maillist - Lug-dd@mailman.schlittermann.de https://ssl.schlittermann.de/mailman/listinfo/lug-dd
Hallo,
ich arbeite mich gerade in Kdenlive Videoschnitt unter Linux ein und möchte mal in die Runde Fragen ob jemand damit vertraut ist, oder ob ihr Leute kennt die da Erfahrung haben. Mit meinem schlechten englisch ist das FAQ`s stöbern und Videotutorials sehen recht mühsamm.
----------------------------------------------------------------------- Joe Schraube Sonne & Holz Bischofswerderstr. 4 01099 Dresden
skype joe.schraube facebook joe schraube diaspora joe schraube
Tel. 0351.899 60 - 709 Fax 0180 355 18 44 089 Mob. 0179. 73 866 09
Hallo,
ich kenne "Kdenlive" (noch) nicht und fand "kino" immer gut.
Was gefäält dir an "Kdenlive"?
Erik
Am 02.01.2012 00:49, schrieb Joe:
ich arbeite mich gerade in Kdenlive Videoschnitt unter Linux ein und möchte mal in die Runde Fragen ob jemand damit vertraut ist, oder ob ihr Leute kennt die da Erfahrung haben. Mit meinem schlechten englisch ist das FAQ`s stöbern und Videotutorials sehen recht mühsamm.
Hallo Joe,
On Mon, 02 Jan 2012 00:49:01 +0100 Joe j.schraube@web.de wrote:
ich arbeite mich gerade in Kdenlive Videoschnitt unter Linux ein und möchte mal in die Runde Fragen ob jemand damit vertraut ist, oder ob ihr Leute kennt die da Erfahrung haben.
Auskennen nicht, aber da wäre ja auch erst mal die, was du machen willst.
Mit meinem schlechten englisch ist das FAQ`s stöbern und Videotutorials sehen recht mühsamm.
Meine Empfehlung: Wenn man mit englischen Tutorials nicht klarkommt, dann nimmt man die deutschsprachigen.
Ein erster Anlaufpunkt könnte daher sein: http://de.wikibooks.org/wiki/Kdenlive/_Schnellstart
Inklusive der weiterführenden Kapitel und mit der deutschen Oberfläche von kdenlive sollte der Einstieg erst mal nicht so schwer fallen.
Viel Erfolg.
Gruß, Folke
danke für den Link : > http://de.wikibooks.org/wiki/Kdenlive/_Schnellstart
den hat Tante googel nicht gefunden - sehr merkwürdig. Auch das das nicht über die Kdenlive.org schnell zu finden ist ist schade ....
sehr schön das hilft weiter. Ich hatte bis jetzt mit dem googel-übersetzer gelesen oft ziemlicher Textbrei ....
zur Frage warum Kdenlive ?
Wiki : Es steht vom Funktionsumfang zwischen Anwendungen wie Kino auf der einen und professionellen Tools wie Jashaka bzw Cinelerra auf der anderen Seite. Es lässt sich sehr leicht bedienen und bietet dennoch Funktionen aus dem Profilager.
exakt, intuitive schöne grafische Oberfläche ist mir wichtig.
Ich hatte mich in Adope Primäre und in Avid Liquid eingearbeitet aber beides für mich unbefriedigend. Jetzt mir einen Mac zugelegt um Final Cut zu nehmen aber doch noch mal alle Programme die Ubuntu anbietet zur Hand genommen und Kdenlive ist bis jetzt recht ok !
ich produziere gelegentlich Video-Interviews mit je einer Person, mit einer oder 2 Cameras. Nichst aufwendiges ich will schnell und einfach arbeiten.
Ich lerne meist schneller von Menschen als aus Texten, aber ich werde sicher meine Fragen auch so rausbekommen.
------------------------------------------------------------------------------ warum ruckelt ton und Bild ( mein Rechner : 1,8 GHz Intel core Duo 6300 4GB DDR 3 Arbeitspeicher. )
warum sind auf der 11.04 Ubuntu dirsro das Rendern in mp4 nicht möglich auf der 10.04 ist es möglich ? ( habe von fehlenden Codeks nichts finden können )
kann ich eine einzelne Tonspur stretchen ? in der Zeit dehnen wenn es nicht mehr syncron läuft?
da ich meine Orginaldateien *.tod nicht bearbeiten kann muß ich konvertieren. sollte ich die Größe belassen und fette mpeg2 Dateien bearbeiten ( 4 min 1 GB ) oder in 2000er mp4 konvertieren - lassen sich auch bearbeiten.
Am Dienstag, 3. Januar 2012, 00:13:57 schrieb Joe: Hi,
--- warum ruckelt ton und Bild ( mein Rechner : 1,8 GHz Intel core Duo 6300 4GB DDR 3 Arbeitspeicher. )
Ich benutze kein Ubuntu, aber bei mir hat es geholfen, alle CPU-Kerne auf die maximale Taktfrequenz festzunageln. Ich schätze bei Ubuntu gibt es ein Applet dafür.
Alexander
Moin Joe,
Noch eine Idee habe ich : Ein Skript könnte jede Nacht zu jeder neuen Datei einen Hardlink in ein Verzeichnis setzten das vom Webdav aus nicht erreichbar ist.
( cp -l QUELLE ZIEL )
Wenn ich das mit den Hardlinlks unter Linux richtig verstanden habe, ist eine Datei erst gelöscht wenn beide links gelöscht sind, beide sind gleichwertig und nicht von einander abhängig.
Anstatt mit einem cron-Job kannst du sofort bei Änderungen in einem Verzeichnis deinen Hardlink anlegen. Der Kernel gibt über (mindestens) eine Schnittstelle eine Meldung aus, wenn sich in einem Verzeichnis was ändert. Ich habe irgendsowas im Gebrauch: dnotify --create --delete --rename \ --attrib --recursive \ /Pfad/zu/den/Dateien/ \ -e /Dein/eigenes/Superscript (alles auf einer Zeile und die "" weglassen)
(Was machst du mit legitimen Löschversuchen der Nutzer? Wenn jemand ein Video unbedacht hochlädt, will er es eventuell auch mal wieder löschen und nicht "Täglich grüßt das Murmeltier" spielen.)
Jens
Am 27.12.2011 22:01, schrieb Jens Weiße:
Anstatt mit einem cron-Job kannst du sofort bei Änderungen in einem Verzeichnis deinen Hardlink anlegen. Der Kernel gibt über (mindestens) eine Schnittstelle eine Meldung aus, wenn sich in einem Verzeichnis was ändert.
Das klingt spannend und behalte ich mal im Hinterkopf aber ich bin jetzt mit der simplen Methode einfach von Hand einmal im Monat die Komplette Ordnerstuktur incl. aller Dateien in ein Verzeichnis zu "hardlinken" recht zufrieden. Ich bin beeindruckt, das diese Aufgabe ( ca 1TB etliche tausend Dateien ) in gerade mal einer Sekunde erledigt ist.
Was machst du mit legitimen Löschversuchen der Nutzer?
kein Problem, der User kann ja in seinem Verzeichnis löschen, dass die Datei an anderer Stelle noch da ist, bemerkt er erstmal nicht. Sehr elegant und simpel die Sache mit den Hardlinks, ein Grund mehr Linux zu lieben, ich werde meine Ext. Platten in Zukunft mit EXT4 formatieren, hab gerade mal nachgesehen : es gibt kleine Progs wenn Leute mit Windows auf EXT4 zugreifen wollen.
Danke für den anregenden Austausch hat mir weitergeholfen.
(Inzwischen flattern die ersten Danke ... und ... da ist ja viel drauf-mails rein. )
Gruß Joe
Moin Joe,
Was machst du mit legitimen Löschversuchen der Nutzer?
kein Problem, der User kann ja in seinem Verzeichnis löschen, dass die Datei an anderer Stelle noch da ist, bemerkt er erstmal nicht.
Irgendwie machst Du es Dir meiner bescheidenen Meinung nach viel zu einfach. Ein Admin hat in meinen Augen auch die Wünsche und Rechte der Nutzer zu beachten. Aber das hast Du mit deinen 20-100 Nutzern bestimmt haarklein ausdiskutiert und die Policy in schriftlicher Form fixiert. Nicht das irgendjemand einmal sauer reagiert.
Achso ... da fällt mir der Spruch ein: "Der Versuch Informationen aus dem Internet zu entfernen ist genauso sinnvoll wie Pisse aus dem Pool".
Jens
Am 28.12.2011 09:16, schrieb Jens Weiße:
Irgendwie machst Du es Dir meiner bescheidenen Meinung nach viel zu einfach. Ein Admin hat in meinen Augen auch die Wünsche und Rechte der Nutzer zu beachten.
da hast du voll recht, nur ist mein Projekt ein klar Freundeskreis-bezogenes nicht öffentliches.
Und das Ganze ist übrigenbs Ergebnis von recht langen Überlegungen wohin sich die geliebte Netztanachie bewegt wenn durch den Dauerbeschuß von Abmahnschreiben von Anwälten altes Recht und alte Ordnungsstrukturen wieder etablieren. Da ich gelernter DDR Bürger bin ist meine Antwort : private Netzwerke. Wenn die gut organiesiert sind können die sogar besser sein als Nepster oder Rapidshare weil durch den Freundeskreis " Redaktionell " bearbeitet und gefiltert.
Gruß Joe
[Umgebung: Debian Squeeze, Multi-User, rollende Schichten]
ein Teil der werten Anwenderschaft vergißt regelmäßig, nach getaner Arbeit ihre Gnome-Sitzung abzumelden.
Folge ist, daß die Clients so lange durchlaufen, bis mal wieder alle Benutzer abgemeldet sind und sich jmd. erbarmt, die Kisten auszuschalten.
da kannst dich als root zum user machen und gnome-session-save - Saves or ends the current GNOME session- nutzen
vielleicht kann man auch einen "watchdog" schreiben der nach 1h untätigkeit (keine mouse und tatstatur sich abschaltet, wenn man den energiemanager so einstellt das nach 30 min der bildschirm ausgeht ist es auch unwahrscheinlich das jemand etwas liest) oder ein abmeldemodul für xscreensaver
Was passiert mit einer offenen Sitzung, wenn Admin abschaltet?
kommt drauf an wie
wenn du gnome-session-save als user ausführst wird die sitzung abgemeldet und gespeichert
Wie hoch ist die Wahrscheinlichkeit von Komplikationen (abgesehen von ungespeicherten Dokumenten, die mglw. aber auch vernachlässigbar sind)?
naja wenn irgendwelche berechnungen etc laufen währe das natürlich unschön oder ne art teamviewer session dann ist das natürlich weg
das kannste erstmal nur organisatorisch lösen, regel wie mit berechnungen un zu gehen ist (nur auf server nicht auf clients) wie mit fernzugriffen un zugehen ist (keine oder nur auf server)
Kennt jemand eine saubere Lösung für diese Gemengelage?
also ne sauber lösung gibt es nur dann wenn die nutzer wissen was sie dürfen und was nicht und wenn sie wissen was passiert wenn sie sich nicht dran halten ich fände es scheiße das mein kompilat oder mein indexierungsjob ... am morgen nicht fertig ist weil der admin "ohne ankündigung" den rechner gestoppt hat
andreas
Danke & Grüße,
Bernhard
Lug-dd maillist - Lug-dd@mailman.schlittermann.de https://ssl.schlittermann.de/mailman/listinfo/lug-dd
Hallo,
Grimnin Fridyson fridy_lugdd@yahoo.de (Mi 30 Nov 2011 06:43:14 CET): (…)
also ne sauber lösung gibt es nur dann wenn die nutzer wissen was sie dürfen und was nicht und wenn sie wissen was passiert wenn sie sich nicht dran halten ich fände es scheiße das mein kompilat oder mein indexierungsjob ... am morgen nicht fertig ist weil der admin "ohne ankündigung" den rechner gestoppt hat
Den hier geäußerten Vorschlag mit dem Einschlafen des Rechners finde ich ziemlich gut. Vielleicht kann man das kombinieren mit einer Schwelle der der CPU-Last, so daß diese für eine bestimmte Zeit einen bestimmten Level unterschritten haben muß, damit die Kiste einschläft. (Und natürlich keine Maus/Tastaturbetätigungen erfolgen.)
Am Thu, 1 Dec 2011 09:22:07 +0100 schrieb Heiko Schlittermann hs@schlittermann.de:
Den hier geäußerten Vorschlag mit dem Einschlafen des Rechners finde ich ziemlich gut. Vielleicht kann man das kombinieren mit einer Schwelle der der CPU-Last, so daß diese für eine bestimmte Zeit einen bestimmten Level unterschritten haben muß, damit die Kiste einschläft. (Und natürlich keine Maus/Tastaturbetätigungen erfolgen.)
Und vielleicht auch nur dann, wenn keine cron-jobs o.Ä. anstehen - wobei die Benutzer cron-jobs wohl lieber auf einem 24/7 laufenden Server ausführen sollten.
Carsten
lug-dd@mailman.schlittermann.de