RAID5 und das Booten mit GRUB

Hobbystern

Hobbystern

Wahl-Debianer
Hallo Gemeinde,

meinen Plan (aus Raid1mach5) habe ich umgesetzt, das ganze läuft nun auf "md0" mit 3 HDDs, eine ist noch aussen vor (missing) und trägt die alten Daten die nunmehr nicht mehr gebraucht werden.

Problem : Booten in ein RAID5 soll ja nicht gehen, es macht auch Sinn das dies nicht geht, da ein RAID5 ja nicht alle Daten auf allen Platten trägt.

Gesagt - Gedacht. Ich habe also immer zwei Partitionen je HDD errichtet, eine mit 800 (!) Blöcken und immer den Rest ins RAID gesandt als fd-RaidAutod. Partition, das ganze sollte nun von der zB "sdx1" booten und aus "sdx2" das Raid fahren, so könnte man im Fehlerfall einfach auf eine andere Partition ausweichen, fertig ist.

Mein Problem liegt nunmehr darin das die Partitionen anscheinend beide "sdx1" für boot und "sdx2" für mdadm in das Raid eingebunden wurden, GRUB meldet mir wrong partition type usw usf.

Ich habe nun den gesamten Nachmittag mit Google und zahlreichen Lösungsideen verbracht - nun sehe ich nur noch die Lösung das ganze System wieder von einer LiveCD zu booten und die "sdx1" Partitionen wegzunehmen, nochmals neu zu erstellen und zu partitionieren.

Sie sind nachweislich "ext3" Partitionen, aber alel laufen über /dev/mapper...

Ich würde mich sehr freuen wenn jemand mir einige Gehirnzellen ausleiht - ich bin sicher nicht zu doof mit Google selber Hilfe zu finden, aber hier hat irgendetwas mit hineingespielt.

Booten IST möglich, über die - noch nicht im raid verbund gefahrene "sda" HDD.

So sieht aktuell die "mount" ausgabe aus :

Code:
root@ubu-server:/# mount
[B]/dev/md0[/B] on / type [B]ext3 [/B](rw,errors=remount-ro)
proc on /proc type proc (rw)
/sys on /sys type sysfs (rw)
varrun on /var/run type tmpfs (rw)
varlock on /var/lock type tmpfs (rw)
procbususb on /proc/bus/usb type usbfs (rw)
[B]udev on /dev type tmpfs (rw)[/B]
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
devshm on /dev/shm type tmpfs (rw)
[I]/dev/mapper/sda1 on /media/500gb-usb type ext3 (rw)[/I]
So die Ausgabe von "di" oder auch "du" (ziemlich auffällig war mir das geschwärzte in fett)

Code:
root@ubu-server:/media/500gb-usb# di /dev/[B]sdb1[/B]
Filesystem         Mount               Megs     Used    Avail %Used fs Type
[B]udev               [/B]/dev              2027,6      0,1   2027,5   0%  [B]tmpfs  [/B]
root@ubu-server:/media/500gb-usb# di /dev/[B]sdb2[/B]
Filesystem         Mount               Megs     Used    Avail %Used fs Type
[B]udev               [/B]/dev              2027,6      0,1   2027,5   0%  [B]tmpfs  [/B]

Das ganze nochmal direkt ab Werk

Code:
root@ubu-server:/# [B][U]cat /proc/mounts[/U][/B]
rootfs / rootfs rw 0 0
none /sys sysfs rw,nosuid,nodev,noexec 0 0
none /proc proc rw,nosuid,nodev,noexec 0 0
udev /dev tmpfs rw 0 0
/dev/md0 / ext3 rw,data=ordered 0 0
/dev/md0 /dev/.static/dev ext3 rw,data=ordered 0 0
tmpfs /var/run tmpfs rw 0 0
tmpfs /var/lock tmpfs rw 0 0
usbfs /proc/bus/usb usbfs rw 0 0
devpts /dev/pts devpts rw 0 0
tmpfs /dev/shm tmpfs rw 0 0
tmpfs /var/run tmpfs rw 0 0
tmpfs /var/lock tmpfs rw 0 0
/dev/mapper/sda1 /media/500gb-usb ext3 rw,data=ordered 0 0
root@ubu-server:/#

Über Rat und Lesebegeisterte SEHR erfreut. Danke !

Stefan
 
Booten von Raid5

Hallo


1. die sdx1 aus dem raid entfernen
2. Dann das raid5 wieder synchronisieren lassen
3. alle sdx1 wieder komplett neu formatieren und jetzt als raid1 zusammenfassen, so hast du immer ein betriebbereites /boot auf allen Raid-Platten.im Falle, das sda ausfällt.


4. mal lilo ergooglen, ich hab mal in einem HowTo gelesen, lilo käme mit raid5 zurecht und könnte ein raid5 booten. Ob das stimmt und dem immer noch so ist, k.A.

[Edit]
lilo kann bei einem Raid5 nur booten, wenn /boot zu Raid1 zusammengefaßt wird

siehe hier
http://ice.computerkramer.de/sync.html
Das ist auch ne schöne Beschgreibung für raid1 und raid5 , hier mit lilo.



mfg
schwedenmann
 
Zuletzt bearbeitet:
Hi Schwedenmann,

auf Dich scheint Verlass zu sein :-)

Die Idee mit dem RAID1 und 5 (boot und daten) war ja auch meine, IMHO sind die sdx1 partitionen aber gar nicht im Raid inbegriffen - so sollte es ja auch sein, sdx2 im raid, sdx1 in schritt 1 kein raid, nachher erst raid1 zum booten.

Aber die Ausgabe unterstützt meine Annahme :

Code:
root@ubu-server:~# mdadm --examine --scan /dev/sdb1
root@ubu-server:~# mdadm --examine --scan /dev/sdb2
ARRAY /dev/md0 level=raid5 num-devices=4 UUID=c7a77771:3165d4f7:56545537:edbac9ed
root@ubu-server:~#

S.h. sdx1 hat kein RAID Header, SDx2 sehr wohl.

Ich würde nunmehr das ganze RAID nochmals per LiveCD unter die Lupe nehmen, also nicht starten, sdx1 neu formatieren, jedoch schätze ich das ich im laufenden System nichts tun kann, denn .. :

Code:
root@ubu-server:~# mkfs /dev/sdb1
mke2fs 1.40.8 (13-Mar-2008)
/dev/sdb1 is apparently in use by the system; will not make a filesystem here!
root@ubu-server:~#

Wie siehst Du das??

LG Stefan
 
Es gibt Neues aus dem Wunderland, die Nacht war die Hölle :headup:

Ubuntu und die darin verbauten Raids (1 und 5) haben sich gegen mich verschworen, erst war es ein einfacher Ausfall, das System fuhr auf ro (17:00), dann bootete die Gesamtkonstellation nicht mehr, ein Grub Error 22 war die Ausgabe, nachdem ich diese beseitigt hatte (so gegen 22 Uhr) durfte ich mein RAID System zum letzten Mal sehen, denn ab diesem Zeitpunkt sperrte mich Ubuntu mit einem VFS Kernel Panic aus.

Boot über eine LiveCD brachte mich zwar wieder rein, jedoch kam ich an dem Fehler nicht vorbei und die Zeit des Arbeitsbeginns hier in der Nachtschicht (2:00) rückte immer näher, die Herren und Damen benötigen dann Zugriff auf das System...

Nun, um 1:45 wurde es langsam heiss und ich entschloss mich dazu !NUR! die sdx1 Partitionen mit debian zu überspielen, also clean.

Das ganze war auch ordentlich angewiesen (ganz sicher), naja, er hat auf jeden Fall auch gleich das raid5 auf sdx2 mit benutzt...und somit die ganze raid partitionierung mit heruntergerissen, um ca. 3 Uhr habe ich dann auch aufgegeben mit testdisk die partitionen zurückzuholen und habe mich an ein clean-debian gewagt, die wichtigsten daten sind ja gesichert, nur halt nicht alle.

Um 4:30 (vorhin) fand ich dann endgültig heraus das es einen Grund hatte warum mein Vorgänger Ubuntu genommen hat, der ProLiant Server ist mit seinen HP Treibern nicht bei Debian vertreten, scsi und netzwerk liefen nicht ohne treiber cds.

Nun, seit 4:30 installiere ich nun clean ubuntu mit raid 1 als boot und raid als daten hdd.

Ich habe die vage Hoffnung noch vor dem ersten Sonnenstrahl hier heraus zukommen und vielleicht nicht mit Steinen beworfen zu werden....

A bad Day...

LG Stefan
 
Das Ende vom Lied...

...ist das fast alle Daten, aber definitiv alle kritischen Daten wieder am Platz sind, es wurde alles zurückgeholt und alles rekonstruiert so dass niemandem am Montag früh auffallen sollte was hier geschehen ist.

Ich werde nun sicherlich über eine zukünftige Lösung nachdenken müssen, aktuell läuft das System in einem "one-disc" Modus, also alles ohne RAID etc. auf einer Disc und auf einem redundanten Server.

So kann ich mir alles nochmals in Ruhe überlegen, eine Frage hier - die ursprüngliche :

Was ich von SW Raid halte ist aktuell sehr wackelig, ich denke das alles Schattenseiten hat, so auch SW Raid - jedoch ist es in meiner aktuellen Umgebung fast unumgehbar, da flexibel - ohne das SW Raid wäre es nie so weit gekommen, aber es wäre auch nie wieder so gut gegangen :-/


Wenn ich nun, wie anfänglich geplant das System auf ein 4 x Partition sdx1 RAID 1 und 4 x sdx2 RAID 5 setze, wie kann ich verhindern das mdadm bei den beiden partitionen mit eingreift.

Es war definitiv so dass md0 (4xraid1) von md1 (4xraid5) abhängig war, lud ich ein md device in den stop-mode, so waren die partitionen nach dem stoppen busy und unzugänglich, auch von einer live-cd.

Ich denke das diese Konstellation gewagt ist, dann lieber eine extra - start hdd, aber diese ist dann wieder ausfallgefährdet, also dann lieber ein raid1 mit 2xhdd, aber dann kommt das grosse jammern auf was 250gigs da so als boot-hdd rumdöseln...

WIe seht ihr das? Ist es möglich ein RAID1 und RAID5 auf einer disc zu betreiben? Sinn würde es ja machen..

LG Stefan
 

Ähnliche Themen

Systempartition um den Speicherplatz der zweiten Disk erweitern

Festplatte auf SD Karte umziehen

CentOS 6 - Kernel crashes mit 2.6.32-573.*

load avarage permanent 10

Neue Partition unter openSUSE 12.2 erstellen

Zurück
Oben