L
lolomat
b00n
Hallo zusammen
Ich hab zurzeit ein LVM RAID5 welches mir Kopfzerbrechen bereitet.
Ausgangslage
4 SATA Festplatten sda-d welche so partitioniert sind:
Disk4 crasht und wird ersetzt, doch beim Einsetzten der neuen Festplatte wird der Kontakt zur Disk2 kurz unterbrochen.
Der Superblock ist persistent und die Daten nicht wirklich inkonsistent also:
Leider zeigt der immer noch "State : clean, degraded" an
Man beachte: [UEU_]
mdadm --no-degraded?
Was denkt ihr?
Ich hab zurzeit ein LVM RAID5 welches mir Kopfzerbrechen bereitet.
Ausgangslage
4 SATA Festplatten sda-d welche so partitioniert sind:
Code:
Device Boot Start End Blocks Id System
/dev/sda1 1 98 787153+ fd Linux raid autodetect
/dev/sda2 99 147 393592+ fd Linux raid autodetect
/dev/sda3 165 60801 487066702+ fd Linux raid autodetect
Der Superblock ist persistent und die Daten nicht wirklich inkonsistent also:
Code:
cube> mdadm --assemble --force -v /dev/md2 /dev/sda3 /dev/sdb3 /dev/sdc3
mdadm: looking for devices for /dev/md2
mdadm: /dev/sda3 is identified as a member of /dev/md2, slot 0.
mdadm: /dev/sdb3 is identified as a member of /dev/md2, slot 1.
mdadm: /dev/sdc3 is identified as a member of /dev/md2, slot 2.
mdadm: clearing FAULTY flag for device 1 in /dev/md2 for /dev/sdb3
mdadm: added /dev/sdb3 to /dev/md2 as 1
mdadm: added /dev/sdc3 to /dev/md2 as 2
mdadm: no uptodate device for slot 3 of /dev/md2
mdadm: added /dev/sda3 to /dev/md2 as 0
mdadm: /dev/md2 has been started with 3 drives (out of 4).
Code:
cube> mdadm --detail /dev/md2
/dev/md2:
Version : 00.90
Creation Time : Fri Nov 23 10:13:34 2007
Raid Level : raid5
Array Size : 1461199872 (1393.51 GiB 1496.27 GB)
Used Dev Size : 487066624 (464.50 GiB 498.76 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Fri May 29 14:30:28 2009
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : bc166613:b3a27bd3:5e1731df:037949f2
Events : 0.504130
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/hdb3
2 8 35 2 active sync /dev/hdc3
3 0 0 3 removed
Code:
cube> cat proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md2 : active raid5 sda3[0] sdb3[1](E) sdc3[2]
1461199872 blocks level 5, 64k chunk, algorithm 2 [4/3] [UEU_]
md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3]
393472 blocks [4/4] [UUUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
787072 blocks [4/4] [UUUU]
Code:
cube> raidtool status 2
/dev/md2 is running, status: CRASHED, rebuilding: None
Device level: RAID 5
Device size: 1426953 MB (1496268668928 bytes)
Disk:
[/dev/sdc3: Normal]
[/dev/sdb3: Failed(Which ma]
[/dev/sda3: Normal]
Was denkt ihr?
Zuletzt bearbeitet: