Tobias Koenig wrote:
Am Sam, 01 Apr 2000 schrieb Matthias Petermann:
seit einiger Zeit kann ich nach dem routinemäßigen Überprüfen der Partition bei Booten einen Zuwachs der Fragmentierung feststellen. Gibt es unter Linux auch so etwas wie Defrag?
Leider nicht... Hat jemand Lust sowas zu programmieren ;)???
Habe folgendes in der SuSE-SDB gefunden ...
[schnipp]
EXT2 - Fragmentierung
Symptom: Wie defragmentiert man das EXT2-Filesystem?
Ursache: Beim Filesystemcheck werden x% "non-contiguous" angezeigt.
Lösung: Die Info stammt von Kristian Koehntopp. Es bringt nix, denn nach der Fragmentierung wird das Dateisystem sehr schnell wieder einen fuer die Nutzungsweise des Dateisystems charakteristischen Fragmentierungslevel anstreben und dann dort verweilen.
Ausserdem spielt die Laenge der Fragmente eine Rolle. Linux verwendet kernelintern ein Readahead von 16 Blocks. Das bedeutet: Wenn eine Datei sequentiell durchgelesen wird (weit ueber 95% alle Lesezugriffe!), liest Linux bis zu 16 Bloecks am Stueck voraus, um den kernelinternen Cache vorzugluehen, in der Hoffnung, dass diese Bloecke gleich von dem betreffenden Programm verlangt werden.
Wenn die Fragmente also groesser als 16 Bloecke sind (die meisten sind das, siehe unten), dann ist es letztendlich egal, ob die Datei fragmentiert ist oder nicht, weil der Seek in den Readaheads untergeht. Nur Fragmente, die kleiner sind als 16 Bloecke wirken sich wirklich schaedlich auf die Leseperformance aus.
Das ext2-Dateisystem schreibt Dateien nun auch mit einer Art writeahead, aeh, mit Preallocation. Wenn Du in einem ext2-Dateisystem einen Block schreibst, belegt das Dateisystem gleich bis zu 7 weitere Bloecke in Folge fuer diese Datei. Zwei konkurrierende Schreibzugriffe in einem Verzeichnis wuerden also nicht Bloecke der Form
121212121212
anordnen, sondern eine Blockfolge
1ppppppp2qqqqqqq
erzeugen, wobei jeweils 1 und 2 geschriebene Bloecke der Dateien 1 und 2 sind und p und q fuer 1 bzw. 2 vorbestellte Bloecke sind. Werden 1 und 2 konkurrierend verlaengert, entsteht so
11111111222222221ppppppp2qqqqqqqq
und so weiter. Auf diese Weise wird die schaedliche (kleine) Fragmentierung weitestgehend vermieden. Das ganze Verfahren ist eine Verallgemeinerung des Fragment/Block-Verfahrens des BSD Fast Filing Systems. Ausserdem muss man als Anwender auf einem Multitaskingsystem auch noch zwischen Performance und Durchsatz unterscheiden: Performance ist das, was ein Anwender mit einem einzelnen Prozess maximal aus der Platte an MB/sec rauslutschen kann. Durchsatz ist das, was die Platte ueber alle Anwender und Prozesse gerechnet an MB/sec ausspuckt.
In Multitasking-Systemen ist der Durchsatz oft sehr viel groesser als die Performance. Linux hat Algorithmen, die den Durchsatz, nicht die Performance des System erhoehen. Zum Beispiel werden Zugriffe auf die Festplatte, die in der Wait Queue der Disk stehen, nach Blocknummern aufsteigend sortiert. Mit einem Saegezahn-Algorithmus klettert der Kopf der Platte zu den hohen Blocknummern und serviced die Requests, um dann in einem long seek nach unten zu zucken und die naechste Runde zu drehen. (Nein, das ist nicht ganz der Fahrstuhl-Algorithmus: Mit dem waren die Latenzen/Service Times zu hoch und der Algorithmus ist nicht fair). Ausserdem werden aufeinanderfolgende Requests fuer denselben Prozess von Linux zu einem Request groesserer Groesse zusammengefasst (geclustert).
Durch eine solche Sortierung erfolgen die Lesezugriffe nicht in der Reihenfolge und mit der Groesse, die der Prozess ausgegeben hat, sondern in der Reihenfolge und mit einer Groesse, die der Platte genehm ist. Auf diese Weise werden die Effekte von grosser Fragmentierung weitgehend ueberdeckt - nur kleine Fragmente wirken sich schaedlich auf den Durchsatz auf.
Und zum Schluss liegt ueber all diesem auch noch der Buffer Cache des Betriebssystems, d.h. beim zweiten Leseversuch kommt sowieso alles aus dem Ram und die Anordnung der Daten auf der Platte ist vollkommen schnurz.
Defragmentierung ist Zeitverschwendung, Kristian
[schnapp]
... was sagt ihr dazu ?
Bye.
Jens