Hallo,
ich schreib das hier mal im smalltalk- Bereich.
Ich hab kein echtes Problem, alles läuft, ich würd nur gerne wissen warum und worauf.
Also -mir war mal wieder langweilig, zuviel verfügbarer Festplattenplatz, versuch ich halt mal eine SuSE auf mein ziemlich unbenutztes Raid0 zu pflanzen.
Ich habe einen on-board-Raid-Controller
Also fake-Raid und den folglich im BIOS deaktiviert.
Vor allem für Fotobearbeitung hatte ich mir dann ein Software-raid0 über 2 80GB-Platten mittels mdadm unter SuSE11.0 x86_64 eingerichtet. Ca 145 GB mit ext3 formatiert.
Ferner läuft auch noch ein Raid1 -ebenfalls mdadm- für sicheres Aufbewahren von Daten.
Eine weitere Platte war bis auf eine swap frei.
Auf dieser freien Platte hab ich eine /boot angelegt, da die /boot nicht auf einem stripe liegen darf.
Dann die SuSE11.1i586-DVD drauf und wollte fröhlich installieren.
Bis mir der Yast ein
anzeigte, das aber nur eine Partition in der Größe der einen HD hatte (74,5 GB).
SuSe 11.0 hatte mir das "ganz normal" als
mit einer Partition von 145 GB angezeigt.
Versuch die Partition zu vergrößern lehnte Yast ab -"nicht möglich".
Aber löschen und neu erstellen ging, also eine /root, eine /home und eine /user angelegt -dabei das raid selbst nicht angetastet, nur neu partioniert und formatiert. Insgesamt 145 GB, gesamte Platte(n) da.
Installation auch kein Problem, booten aus /boot-Partition und dann den boot-Eintrag für die "Neue" einfach in die menu.lst derjenigen SuSE kopiert die ich normalerweise über den MBR starte.
Keine Probleme -SuSE11.1i586 startet und alles läuft.
Dann wieder in die SuSE 11.0 gebootet die in ihrer fstab den Eintrag der /dev/md1 drin hatte und garnicht glücklich darüber war daß da jemand dran rumgefummelt hatte.
"fschk failed".
booten abgebrochen, fix mal root!
Eintrag aus der fstab entfernt, mtab enthielt nur noch die root-Partition -> gefixt, ok bootet wieder.
Aus der 11.1i586 sieht fdisk -l so aus:
Was mich irritiert ist das "linux-raid-autodetect" bei der letzten Platte, bzw dessen Fehlen bei der vorletzten und daß eine der beiden Platten in drei Partitionen aufgeteilt ist, die andere aber nicht.
Weiterhin das hier anscheinend zwei unterschiedliche mapper zur Anwendung kommen obwohl ich doch beide Raids ursprünglich als reine Software-Raids mit dem mdadm erstellt hatte.
Kann mir jemand erklären (oder meinetwegen gern auch vermuten) was da passiert ist?
ich schreib das hier mal im smalltalk- Bereich.
Ich hab kein echtes Problem, alles läuft, ich würd nur gerne wissen warum und worauf.
Also -mir war mal wieder langweilig, zuviel verfügbarer Festplattenplatz, versuch ich halt mal eine SuSE auf mein ziemlich unbenutztes Raid0 zu pflanzen.
Ich habe einen on-board-Raid-Controller
Code:
lspci -nn
01:00.0 Mass storage controller [0180]: Silicon Image, Inc. SiI 3132 Serial ATA Raid II Controller [1095:3132] (rev 01)
Vor allem für Fotobearbeitung hatte ich mir dann ein Software-raid0 über 2 80GB-Platten mittels mdadm unter SuSE11.0 x86_64 eingerichtet. Ca 145 GB mit ext3 formatiert.
Ferner läuft auch noch ein Raid1 -ebenfalls mdadm- für sicheres Aufbewahren von Daten.
Eine weitere Platte war bis auf eine swap frei.
Auf dieser freien Platte hab ich eine /boot angelegt, da die /boot nicht auf einem stripe liegen darf.
Dann die SuSE11.1i586-DVD drauf und wollte fröhlich installieren.
Bis mir der Yast ein
Code:
raid-nvidia_eighfbce
SuSe 11.0 hatte mir das "ganz normal" als
Code:
Raid /dev/md1
Versuch die Partition zu vergrößern lehnte Yast ab -"nicht möglich".
Aber löschen und neu erstellen ging, also eine /root, eine /home und eine /user angelegt -dabei das raid selbst nicht angetastet, nur neu partioniert und formatiert. Insgesamt 145 GB, gesamte Platte(n) da.
Installation auch kein Problem, booten aus /boot-Partition und dann den boot-Eintrag für die "Neue" einfach in die menu.lst derjenigen SuSE kopiert die ich normalerweise über den MBR starte.
Keine Probleme -SuSE11.1i586 startet und alles läuft.
Dann wieder in die SuSE 11.0 gebootet die in ihrer fstab den Eintrag der /dev/md1 drin hatte und garnicht glücklich darüber war daß da jemand dran rumgefummelt hatte.
"fschk failed".
booten abgebrochen, fix mal root!
Eintrag aus der fstab entfernt, mtab enthielt nur noch die root-Partition -> gefixt, ok bootet wieder.
Aus der 11.1i586 sieht fdisk -l so aus:
Code:
linux-araa:~ # fdisk -l
Disk /dev/sda: 81.9 GB, 81964302336 bytes
255 heads, 63 sectors/track, 9964 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0xf5c4f5c4
[COLOR=Blue]Meine Suse 11.1x86_64:[/COLOR]
Device Boot Start End Blocks Id System
/dev/sda1 * 1 2611 20972826 83 Linux
/dev/sda2 2612 9964 59062972+ 83 Linux
Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000a9a3a
[COLOR=Blue]Die Platte mit swap und /boot[/COLOR] (Rest frei):
Device Boot Start End Blocks Id System
[COLOR=Blue]/dev/sdb1 1 122 979933+ 82 Linux swap / Solaris
[COLOR=Red]/dev/sdb2 123 774 5237190 83 Linux [/COLOR] [/COLOR]
/dev/sdb3 775 7955 57681382+ f W95 Ext'd (LBA)
/dev/sdb4 7956 19457 92389815 83 Linux
/dev/sdb5 775 3384 20964793+ 83 Linux
/dev/sdb6 3385 7955 36716526 83 Linux
Disk /dev/sdc: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x00097e16
[COLOR=Blue]Meine Suse 11.0x86_64 und die eine Hälfte des Mirrors:[/COLOR]
Device Boot Start End Blocks Id System
/dev/sdc1 * 1 1306 10490413+ 83 Linux
/dev/sdc2 1307 3917 20972857+ 83 Linux
/dev/sdc3 3918 38913 281105370 fd Linux raid autodetect
Disk /dev/sdd: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000472aa
[COLOR=Blue]Mein Sidux und die andere Hälfte des Mirrors:[/COLOR] Device Boot Start End Blocks Id System
/dev/sdd1 * 1 1459 11719386 83 Linux
/dev/sdd2 1460 3927 19824210 83 Linux
/dev/sdd3 3928 38913 281025045 fd Linux raid autodetect
Disk /dev/sde: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x000d7c07
[COLOR=Red]Die erste Platte meines Stripe das /root, /home und /user enthält:[/COLOR]
Device Boot Start End Blocks Id System
[COLOR=Red]/dev/sde1 2 3917 31455270 83 Linux
/dev/sde2 3918 11749 62910540 83 Linux
/dev/sde3 11750 19452 61874347+ 83 Linux
[/COLOR]
Disk /dev/sdf: 80.0 GB, 80000000000 bytes
255 heads, 63 sectors/track, 9726 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000d9711
[COLOR=Red]Die zweite Platte meines Stripe das /root, /home und /user enthält:[/COLOR]
Device Boot Start End Blocks Id System
[COLOR=Red]/dev/sdf1 * 1 9726 78124063+ fd Linux raid autodetect
[/COLOR]
Disk /dev/dm-0: 159.9 GB, 159999983616 bytes
255 heads, 63 sectors/track, 19452 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x000d7c07
[COLOR=Red]Das Stripe - Raid:[/COLOR]
Device Boot Start End Blocks Id System
/[COLOR=Red]dev/dm-0p1 2 3917 31455270 83 Linux
/dev/dm-0p2 3918 11749 62910540 83 Linux
/dev/dm-0p3 11750 19452 61874347+ 83 Linux [/COLOR]
Disk /dev/dm-1: 32.2 GB, 32210196480 bytes
255 heads, 63 sectors/track, 3916 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x00000000
Disk /dev/dm-1 doesn't contain a valid partition table
Disk /dev/dm-2: 64.4 GB, 64420392960 bytes
255 heads, 63 sectors/track, 7832 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x00000000
Disk /dev/dm-2 doesn't contain a valid partition table
Disk /dev/dm-3: 63.3 GB, 63359331840 bytes
255 heads, 63 sectors/track, 7703 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0x00000000
Disk /dev/dm-3 doesn't contain a valid partition table
Disk /dev/md0: 287.7 GB, 287769505792 bytes
2 heads, 4 sectors/track, 70256227 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk identifier: 0x00000000
Disk /dev/md0 doesn't contain a valid partition table
Weiterhin das hier anscheinend zwei unterschiedliche mapper zur Anwendung kommen obwohl ich doch beide Raids ursprünglich als reine Software-Raids mit dem mdadm erstellt hatte.
Kann mir jemand erklären (oder meinetwegen gern auch vermuten) was da passiert ist?