Wenn ich das richtig verstanden habe, sucht OSX nicht aktiv nach "ich muss 10 Sektoren beschreiben, also suche ich einen Platz wo es passt" sondern "ich muss 10 Sektoren schreiben, also beschreibe ich den 1. freien Sektor und wenn dann da leider keine 10 Sektoren hintereinander frei sind, dann schreibe ich eben auf den nächsten weiter, bis alle 10 Sektoren geschrieben wurden".
Dieses ist natürlich ein schönes Bild, das völlig logisch scheint. genauso wie das Bild, das die Defragmentierungsprogramme grafisch präsentieren (viele verstreute belegte Sektoren, fragmentierte Dateien in rot). Die sind recht einfach zu verstehen und wenn man die so belässt, dann haben Defragmentierungen einen grossen Effekt, weil es ja völlig einleuchtend ist. Betrachtet man sich das genauer bei moderenen Systemen ist es bei weitem nicht mehr so. Nur als Beispiele:
- Woher weiss das OS wie viele Sektoren die Zieldatei haben wird? Wenn ein Programm eine Datei schreibt, dann sagt das Programm dem OS nicht vorher Bescheid, wie gross die wird. Außerdem kann eine Datei ja auch mit der Zeit grösser werden.
- Es gibt zwei Arten von Fragmentierung. Einmal die Fragmentierung einer Datei (die hast Du hier betrachtet) und die Fragmentierung des freien Platzes auf der Platte).
- Auch wenn keine Datei in sich fragmentiert ist, der Lesekopf muss ständig hin- und herspringen, da viele Dateien gleichzeitig geöffnet sind.
- Dateien (gerade größere) werden nicht unbedingt am Stück gelesen, sondern zwischendurch dann noch andere.
- Gerade sehr große Dateien (über 20MB, ist natürlich eine willkürliche Grenze) werden nicht am Stück gelesen und der Kopf muss sowieso springen.
- Sinnvoll wäre es, die Fragmente von Dateien genau in der Reihenfolge auf die Platte zu legen, wie sie gebraucht werden, d.h. eine Fragmentierung der Dateien wäre sogar geschwindigkeitsfördernd. Allerdings ist diese Reihenfolge natürlich immer anders und nicht generell festzulegen.
- Die Caching-Methoden vom Betriebssystem und unabhängig davon von der Platte selber versuchen die Effekte soweit möglich zu mildern, d.h. aber auch, dass die physikalischen Zugriffe gar nicht so einfach vorausgesagt werden können.
- Neben der automatischen Defragmentierung von kleinen Dateien unter OS X verschiebt OS X auch noch die am häufig verwandten Dateien in den Bereich der Platte, der am schnellsten ist.
Also im Prinzip ziemlich kompliziert das alles.
Im Endeffekt: Moderne Systeme haben so viele Dateien gleichzeitig auf und greifen auf die unterschiedlichsten Dateien zu, dass der Kopf sowieso ständig springen muss. Das ganze wird durch Caching, autom. Defragmentierung gemildert und eine vollständige Defragmentierung bringt nahezu keinen Geschwindigkeitsvorteil, auch weil es keine optimale Struktur gibt und völlig defragmentierte Dateien und Platte gar nicht optimal sind. Nur bei sehr vollen Platten oder Spezialfällen (Videoschnitt mit sehr grossen Dateien) kann es zu Geschwindigkeitsnachteilen durch Fragmentierung kommen. Aber auch dann ist "Backup erstellen und zurückkopieren" einfacher als "Backup erstellen und defragmentieren".