bestehendes raid widerherstellen

Dieses Thema im Forum "Linux OS" wurde erstellt von speeddrive, 05.08.2008.

  1. #1 speeddrive, 05.08.2008
    speeddrive

    speeddrive Grünschnabel

    Dabei seit:
    05.08.2008
    Beiträge:
    2
    Zustimmungen:
    0
    hallo leute, :D

    und zwar folgendes:

    Hatte bis vor 2 Tagen einen Openfiler 2.2 laufen ( baut auf rPath Linux auf) in diesem hatte ich ein Software Raid 1 eingerichtet.

    Und nun zum Problem:

    Auf einer 20GB Festplatte hatte ich Openfiler aufgespielt nur diese hat jetzt den Geist aufgegeben jetzt hab ich 2 * 500 Gb gespiegeltet Daten an welche ich dran kommen möchte?!

    Wie kann man ein bestehendes Raid ohne Datenverlust sicher in eine Live Cd oder eine andere Distri einbinden?

    bzw.

    Wenn ich jetzt einfach openfiler 2.3 auf eine frische Fesplatte aufspiele und dann wieder die Daten Platten dran hänge würde das ganze dann automatisch funktionieren? Also das er erkennt " Ah da war ja schon ein Raid, binde ich gleich wieder ein? "

    und noch rein Interesse halber:

    Wenn angenommen nur mehr 1 der 2 Platten vorhanden wäre wie könnte man dann die Platte auslesen ohne wieder eine 2te dazu Kaufen zu müssen?


    Habe zwar schon einiges gegoogelt nur wirklich etwas was mir geholfen hat habe ich nicht gefunden, habe mir auch schon den aktuellen Opfenfiler in Virtualbox installiert und dort ein ähnliches Szenario zusammengebastetl um dann ein Live Cd image zu starten und das ganze versuchen zu "retten".

    Es ist mir wichtig das die Daten nicht futsch gehen...


    beste grüße und schon ein Danke für Antworten :hilfe2:

    speeddrive
     
  2. Anzeige

    Schau dir mal diese Kategorie an. Dort findest du bestimmt etwas.
    Registrieren bzw. einloggen, um diese und auch andere Anzeigen zu deaktivieren
  3. #2 speeddrive, 07.08.2008
    speeddrive

    speeddrive Grünschnabel

    Dabei seit:
    05.08.2008
    Beiträge:
    2
    Zustimmungen:
    0
    Hallo Leute hab's geschafft:

    Hab dann alles unter Ubuntu gemacht weil Openfiler schon bie der Installation auf die neue 40GB Systemplatte zu herumgezickt hat

    Zuerst habe ich auf einer virteullen Maschine herumprobiert in welcher ich einfach einen neuen Openfiler installiert habe schnell ein raid engerichtet habe dann noch ein paar bilder drauf geschoben um meine "wichtigen Daten darzustellen", dann nach einigen Versuchen bin ich dank der Raid und LVM Wiki von Ubuntuusers doch noch zu einer Lösung gekommen bei welcher meine Daten erhalten bleiben.

    Hier eine Log der Befehle welche es braucht um ein von Openfiler eingerichtetes Raid mit LVM in Ubuntu zu mounten(das hab ich dann schon wirklich auf meinem sensiblen Sachen ausgeführt):
    Code:
    speeddrive@filer:/$ sudo apt-get install mdadm 
    Paketlisten werden gelesen... Fertig 
    Abhängigkeitsbaum wird aufgebaut  
     Reading state information... Fertig 
    Empfohlene Pakete: 
     mail-transport-agent 
    Die folgenden NEUEN Pakete werden installiert: 
     mdadm 
    0 aktualisiert, 1 neu installiert, 0 zu entfernen und 247 nicht aktualisiert. 
    Es müssen 224kB Archive geholt werden. 
    After this operation, 639kB of additional disk space will be used. 
    Hole:1 http://at.archive.ubuntu.com hardy/main mdadm 2.6.3+200709292116+4450e59-3ubuntu3 [224kB] 
    Es wurden 224kB in 1s geholt (178kB/s) 
    Vorkonfiguration der Pakete ... 
    Wähle vormals abgewähltes Paket mdadm. 
    (Lese Datenbank ... 96027 Dateien und Verzeichnisse sind derzeit installiert.) 
    Entpacke mdadm (aus .../mdadm_2.6.3+200709292116+4450e59-3ubuntu3_i386.deb) ... 
    Richte mdadm ein (2.6.3+200709292116+4450e59-3ubuntu3) ... 
    Generating array device nodes... done. 
    Generating mdadm.conf... done. 
     Removing any system startup links for /etc/init.d/mdadm-raid ... 
    update-initramfs: deferring update (trigger activated) 
     * Starting MD monitoring service mdadm --monitor [ OK ]  
    
    Processing triggers for initramfs-tools ... 
    update-initramfs: Generating /boot/initrd.img-2.6.24-16-generic 
    speeddrive@filer:/$ sudo fdisk -l 
    Diese Platte hat sowohl DOS- als auch BSD-Magic. 
    Nutzen Sie den „b“-Befehl, um in den BSD-Modus zu gehen. 
    
    Platte /dev/sda: 40.0 GByte, 40020664320 Byte 
    255 Köpfe, 63 Sektoren/Spuren, 4865 Zylinder 
    Einheiten = Zylinder von 16065 × 512 = 8225280 Bytes 
    Disk identifier: 0x90909090 
    
     Gerät boot. Anfang Ende Blöcke Id System 
    /dev/sda1 1 4689 37664361 83 Linux 
    /dev/sda2 4690 4865 1413720 5 Erweiterte 
    /dev/sda5 4690 4865 1413688+ 82 Linux Swap / Solaris 
    
    Platte /dev/sdb: 500.1 GByte, 500107862016 Byte 
    255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder 
    Einheiten = Zylinder von 16065 × 512 = 8225280 Bytes 
    Disk identifier: 0x000d907e 
    
     Gerät boot. Anfang Ende Blöcke Id System 
    /dev/sdb1 * 1 60801 488384001 fd Linux raid autodetect 
    
    Platte /dev/sdc: 500.1 GByte, 500107862016 Byte 
    255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder 
    Einheiten = Zylinder von 16065 × 512 = 8225280 Bytes 
    Disk identifier: 0x00010fb5 
    
     Gerät boot. Anfang Ende Blöcke Id System 
    /dev/sdc1 * 1 60801 488384001 fd Linux raid autodetect 
    
    Platte /dev/sdd: 500.1 GByte, 500107862016 Byte 
    255 Köpfe, 63 Sektoren/Spuren, 60801 Zylinder 
    Einheiten = Zylinder von 16065 × 512 = 8225280 Bytes 
    Disk identifier: 0xd6efd6ef 
    
     Gerät boot. Anfang Ende Blöcke Id System 
    /dev/sdd1 * 1 60801 488384001 8e Linux LVM 
    speeddrive@filer:/$ sudo mdadm --create --verbose /dev/md0 --auto=yes --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1 
    mdadm: /dev/sdb1 appears to be part of a raid array: 
     level=raid1 devices=2 ctime=Tue Jan 15 22:59:20 2008 
    mdadm: /dev/sdc1 appears to be part of a raid array: 
     level=raid1 devices=2 ctime=Tue Jan 15 22:59:20 2008 
    mdadm: size set to 488383936K 
    Continue creating array? y 
    mdadm: array /dev/md0 started. 
    speeddrive@filer:/$ sudo apt-get install lvm2 
    Paketlisten werden gelesen... Fertig 
    Abhängigkeitsbaum wird aufgebaut  
     Reading state information... Fertig 
    Die folgenden zusätzlichen Pakete werden installiert: 
     dmsetup 
    Die folgenden NEUEN Pakete werden installiert: 
     dmsetup lvm2 
    0 aktualisiert, 2 neu installiert, 0 zu entfernen und 247 nicht aktualisiert. 
    Es müssen 365kB Archive geholt werden. 
    After this operation, 1065kB of additional disk space will be used. 
    Möchten Sie fortfahren [J/n]? j 
    Hole:1 http://at.archive.ubuntu.com hardy/main dmsetup 2:1.02.20-2ubuntu2 [40,3kB] 
    Hole:2 http://at.archive.ubuntu.com hardy/main lvm2 2.02.26-1ubuntu9 [325kB] 
    Es wurden 365kB in 1s geholt (194kB/s) 
    Wähle vormals abgewähltes Paket dmsetup. 
    (Lese Datenbank ... 96066 Dateien und Verzeichnisse sind derzeit installiert.) 
    Entpacke dmsetup (aus .../dmsetup_2%3a1.02.20-2ubuntu2_i386.deb) ... 
    Wähle vormals abgewähltes Paket lvm2. 
    Entpacke lvm2 (aus .../lvm2_2.02.26-1ubuntu9_i386.deb) ... 
    Richte dmsetup ein (2:1.02.20-2ubuntu2) ... 
    update-initramfs: deferring update (trigger activated) 
    
    Richte lvm2 ein (2.02.26-1ubuntu9) ... 
    Backing up any LVM2 metadata that may exist...done. 
    update-initramfs: deferring update (trigger activated) 
    
    Processing triggers for initramfs-tools ... 
    update-initramfs: Generating /boot/initrd.img-2.6.24-16-generic 
    speeddrive@filer:/$ sudo modprobe dm-mod 
    speeddrive@filer:/$ sudo vgscan 
     Reading all physical volumes. This may take a while... 
     Found volume group "three" using metadata type lvm2 
     Found volume group "mirror" using metadata type lvm2 
    speeddrive@filer:/$ sudo vgchange -ay mirror 
     1 logical volume(s) in volume group "mirror" now active 
    speeddrive@filer:/$ sudo lvs 
     LV VG Attr LSize Origin Snap% Move Log Copy%  
     500 mirror -wi-a- 465,75G  
     1st three -wi--- 465,75G  
     speeddrive@filer:/$ sudo mkdir /mnt/data 
    speeddrive@filer:/$ sudo mount /dev/mirror/500 /mnt/data 
    speeddrive@filer:/$ cd /mnt/data 
    speeddrive@filer:/mnt/data$ ls 
    aquota.group data homes sicherungen silverblue speeddrive 
    aquota.user data.info.xml lost+found sicherungen.info.xml silverblue.info.xml speeddrive.info.xml

    Auf jeden Fall jetzt habe ich zwar noch Probleme mit den Dateirechten aber mit root kann ich schon überall zugreifen werd mir jetzt dann wohl Gedanken machen müssen wie ich das einteile mit den Rechten.

    Im nachhinein ist der Lösungsweg simpel doch für mich als Einsteiger der hier und da was weiß und noch nicht viel mit Software Raids zu tun hatte und vorher alles bequem über ein Webinterface konfiguriert hat ist das schon eine Menge Arbeit gewesen weil ich es ja austesten musste und das Szenario gabs glaub ich auch noch nicht oft in dieser Form , weil ja meistens eine Platte im Raid eingeht etc.

    grüße von einem glücklichen speedy

    villeicht hilft ja sogar der thread hier dann jemanden der genauso wie ich stundenlang googelt und nichts passendes findet
     
Thema:

bestehendes raid widerherstellen

Die Seite wird geladen...

bestehendes raid widerherstellen - Ähnliche Themen

  1. Wie bestehendes IDE Raid mounten?

    Wie bestehendes IDE Raid mounten?: Nabend. Ich hab da ein großes Prob und zwar habe ich hier ein Raid0 mit 2 NTFS Partitionen und ich verstehe irgendwie nicht wie ich die beiden...
  2. Bestehendes System auf anderen Rechner kopieren

    Bestehendes System auf anderen Rechner kopieren: [erledigt] Bestehendes System auf anderen Rechner kopieren Moin, ich habe einen bereits eingerichteten Laptop mit Arch Linux und einen frisch...
  3. bestehendes LVM in ein neues System einbinden

    bestehendes LVM in ein neues System einbinden: Hallo Zusammen, ich habe ein bestehendes LVM mit 2 Festplatten. ist es möglich den verbund ohne datenverlust in einen anderen PC einzubaun? ich...
  4. Bestehendes Ubuntu-Server System umsetzen

    Bestehendes Ubuntu-Server System umsetzen: Hallo Zusammen, ich beschäftige mich seit 2 Jahren mit Linux/Debian, Anwendungen wie Asterisk, Motion und Apache2. Ich unterhalte 3 Server +...
  5. Bestehendes Debian von HDD auf USB-Stick umziehen lassen?

    Bestehendes Debian von HDD auf USB-Stick umziehen lassen?: Ich hab einen Standard-PC bei mir zuhause als Samba Fileserver abgestellt. Bisher waren da 1x 10GB als Bootplatte und 3x 120GB als Serverplatten...