Software Raid will nicht mehr? openSuSE 11.0

PhilMan

New Member
Hallo Forum,

ich möchte mich hiermit erst einmal dafür entschuldigen, dass ich in diesem Forum und in einem anderen gleichzeitig dieses Thema eröffne, aber ich sitze ein wenig auf Kohlen..........

ich habe vor ca. 2 Monaten aus 3x500GB SATA Platten auf meinem System ein SoftwareRaid5 zusammengestellt.

Aber erst einmal die technischen Daten.
(Es tut mir Leid, wenn diese z.T. nicht ganz präzise sind, aber ich kann den Rechner im Moment nur von Knoppix aus betrachten)

* openSuSE 11.0 - 32Bit
* Kernel 2.6.25-default
* HDD 3xSATA-SAMSUNG_HD501LJ mit je 500GB
* Partitionierung (das x bei sdx steht entweder für a, b, oder c)
o [sdx1] 50MB - ext2 als Bootpartition (/boot)
o [sdx2] 496GB - fd RAID_Autodetect
o [sdx3] 2048MB - swap​
Wie schon zuvor erwähnt, befinden sich diese Platten, bzw. die 3 Partitionen sdx2 in einem Raid 5 Array.
Dieses Array md0 habe ich als Physikalisches Volume in 9 logische Volumes aufgeteilt. Die Volumegruppe hat bei mir den Default-Namen "system".

Vor 4 Tagen ruft mich meine Frau auf der Arbeit an und sagt mir, dass der Rechner nicht mehr starten will.
Er bleibt nach dem Startbild von openSuSE stehen, ohne dass sich der Fortschritt-Balken bewegt.

Als ich dann am nächsten Tag nach dem Problem schauen wollte, sah ich, dass das System daran scheitert die VG "system" ausfindig zu machen.
Der Grund liegt jedoch nicht an LVM, sondern an meinem Raid-Verbund.

Beim Versuch md0 von einer Konsole in einer Knoppix DVD (5.3) zu starten kommt folgende Fehlermeldung:
Code:
root@Knoppix:# /etc/init.d/mdadm start
root@Knoppix:# /etc/init.d/mdadm-raid start
Assembling MD array md0...failed [COLOR='Red'](RUN_ARRAY input/output error).[/COLOR]
Generating udev events for MD arrays...done.
Übrigens sagt /proc/mdstat:
Code:
root@Knoppix:# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : inactive sdc2[0] sda2[3] sdb2[1]
      1458693504 blocks super 1.0

unused devices: <none>
Ok - ich also mdadm weiter gefragt ob vielleicht noch mehr herauszufinden ist.
Code:
root@Knoppix:# mdadm -E /dev/sda2
/dev/sda2:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x1
     Array UUID : 8981134e:867f3bbb:5ea63a02:6ada5f80
           Name : 0
  Creation Time : Sat Sep 27 13:57:31 2008
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 972462368 (463.71 GiB 497.90 GB)
     Array Size : 1944924672 (927.41 GiB 995.80 GB)
  Used Dev Size : 972462336 (463.71 GiB 497.90 GB)
   Super Offset : 972462624 sectors
          State : active
    Device UUID : 0ada2ec3:99b9fc52:ed95d66f:d525765b

Internal Bitmap : -233 sectors from superblock
    Update Time : Sat Dec 20 14:50:41 2008
       Checksum : 56a00d4b - correct
         Events : 1823

         Layout : left-asymmetric
     Chunk Size : 128K

    Array Slot : 3 (0, 1, failed, 2)
   Array State : uuU 1 failed
"Soooooooo" dachte ich mir, "da ist eine Partition des Arrays also nicht mehr in Ordnung, oder wie? Dann müsste man das doch einfach austauschen können....."

Aber jetzt gibt es da ein paar kleinere (Verständnis-)Probleme:

1. Ist es richtig, dass die Partition in Slot 3 (also sda2 lt. mdstat) n.i.O ist?
2. WICHTIG: Ist es richtig, dass es sich hierbei um die Part sda2 handelt?
3. Warum gibt mir ein Versuch, sda2 als "faulty" zu markieren eine Fehlermeldung zurück?
Code:
root@Knoppix:# mdadm --manage /dev/md0 -f /dev/sda2
mdadm: set device faulty failed for /dev/sda2:  No such device
4. Muss ich, um eine Partition/Platte aus dem Verbund herauszubekommen, diese als faulty kennzeichnen?

Ich bin ein wenig verzweifelt wegen der Sache......
Ich hab natürlich auch noch den grössten aller Fehler gemacht, und seit dem Aufspielen des Raid-Systems kein Backup mehr gemacht, so dass alle meine Musik, Bilder, Dokumente etc. zunichte sind, sollte ich das System nicht mehr zum Laufen bekommen.

Ich bitte hiermit in aller Verzweiflung um Rat und Hilfe!
Und möchte mich schon mal im Voraus dafür bedanken


Grüße und schöne Feiertage
PhilMan
:cool:

Link zum anderen Thread: Software Raid will nicht mehr? openSuSE 11.0 - Forum Fachinformatiker.de
====================================================

Edit:

Hallo,

also mein Raid md0 ist dank einer Anleitung unter RAID wiederherstellen - Anleitung [Archiv] - Unixboard.de soweit mal wieder hergestellt (dachte ich zumindest).
Ein neues Raid md0 erstellt, "missing" anstelle der ausgefallenen Partition sda2 verwendet --> Raid gestartet.
mit mdadm --manage /dev/md0 --add /dev/sda2 Partition wieder hinzugefügt und siehe da, hat auch gleich angefangen zu sysncen.

Da ich aber innerhalb des Array mehrere logische Volumes hatte musste ich noch folgende Anleitung beachten HowtoForge Linux Tutorials » Daten aus RAID 1 LVM Partitionen mit der Knoppix Linux LiveCD wiederherstellen

Okay, auch lvm läuft anscheinend prolemlos und unter /dev/mapper finde ich meine erwartetet LV's.
Nachdem ich sie alle unter /media/[LV] mounten wollte erlebte ich jedoch eine böse Überraschung.......

Rund 80% der Daten sind weg bzw. nicht lesbar.
Die Belegung der LV's zeigt mir alles korrekt an, eine Größe der Verzeichnisse zeigt mir meistens 4.0K ------ da is nix drin.

Hat jemand schon einmal dieses Phänomen selbst erlebt und kann mir vielleicht auf die Sprünge helfen?
Ich hab in einem LV (hing im System unter /var) einen fsck versucht.
Nachdem das darin enthaltene ext2 Dateisystem aber anscheinend nur aus Fehlern bestand, habe ich das ganze abgebrochen und auch bei keinem weiteren LV versucht.

Ich vermute, dass die wiederherstellung des RaidArray nicht so ganz erfolgreich verlief.

Kann mir vielleicht jemand sagen, ob es da noch irgendwelche Tricks gibt?
Ich habe mir mit ddrescue zuvor ein Backup der zwei intakten Raid-Partitionen gemacht, so dass ich da gerne noch weiter versuchen würde die Daten wieder herzubekommen.

Jeder Hinweis ist super :)
 
Oben