Hallo
auf einem Server mit Squeeze und LVM in einem RAID1 wurde zuerst /dev/sdb aus dem Array geschmissen, anscheinend wg. IO-Fehlern.
smartctl sagt hier: SMART overall-health self-assessment test result: PASSED aber auch: # 1 Short offline Completed: read failure 90% 11373 626484800
Bevor sdb ausgetauscht werden konnte, bekam /dev/sda noch gravierendere Fehler: SMART overall-health self-assessment test result: FAILED!
1 Raw_Read_Error_Rate 0x002f 001 001 051 Pre-fail Always FAILING_NOW 138300
# 1 Short offline Completed: unknown failure 90% 11372 -
Ich hab sdb erstmal wieder ins Array eingefügt mdadm /dev/md0 -a /dev/sdb1 mdadm /dev/md1 -a /dev/sdb2
Rückmeldung: re-add ...
md0 beinhaltet /boot, der Sync war schneller fertig, als ich nachschauen konnte, bei md1 dauerte er planmäßig ca. 6h, wurde daher nicht permanent beobachtet.
Später sah das dann so aus: root@backup:/var# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sdb2[1](S) sda2[0] 1953414482 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sdb1[1] sda1[0] 96346 blocks super 1.2 [2/2] [UU]
unused devices: <none>
sdb2 ist jetzt als Spare im Array, sda2 degraded. Die Daten sind anscheinend alle noch vorhanden. Aber warum ist sdb2 jetzt als (S)pare deklariert? Da sda2 ausgefallen ist, sollte es ja problemlos entfernt werden können. Aber wie bringe ich sdb2 jetzt in einen normalen Zustand?
Da das "nur" der Backupserver ist, ist das noch unkritisch, aber man weiß ja nie, ob auch mal auf ältere Backups zurückgegriffen werden muß. Ich würde ihn daher nur ungern einfach komplett platt machen.
Gruß Rico
lug-dd@mailman.schlittermann.de