Hallo
auf einem Server mit Squeeze und LVM in einem RAID1 wurde zuerst
/dev/sdb aus dem Array geschmissen, anscheinend wg. IO-Fehlern.
smartctl sagt hier:
SMART overall-health self-assessment test result: PASSED
aber auch:
# 1 Short offline Completed: read failure 90% 11373
626484800
Bevor sdb ausgetauscht werden konnte, bekam /dev/sda noch gravierendere
Fehler:
SMART overall-health self-assessment test result: FAILED!
1 Raw_Read_Error_Rate 0x002f 001 001 051 Pre-fail Always
FAILING_NOW 138300
# 1 Short offline Completed: unknown failure 90% 11372
-
Ich hab sdb erstmal wieder ins Array eingefügt
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
Rückmeldung: re-add ...
md0 beinhaltet /boot, der Sync war schneller fertig, als ich nachschauen
konnte, bei md1 dauerte er planmäßig ca. 6h, wurde daher nicht permanent
beobachtet.
Später sah das dann so aus:
root@backup:/var# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb2[1](S) sda2[0]
1953414482 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sdb1[1] sda1[0]
96346 blocks super 1.2 [2/2] [UU]
unused devices: <none>
sdb2 ist jetzt als Spare im Array, sda2 degraded. Die Daten sind
anscheinend alle noch vorhanden.
Aber warum ist sdb2 jetzt als (S)pare deklariert?
Da sda2 ausgefallen ist, sollte es ja problemlos entfernt werden können.
Aber wie bringe ich sdb2 jetzt in einen normalen Zustand?
Da das "nur" der Backupserver ist, ist das noch unkritisch, aber man
weiß ja nie, ob auch mal auf ältere Backups zurückgegriffen werden muß.
Ich würde ihn daher nur ungern einfach komplett platt machen.
Gruß Rico