cuddlytux
Alles außer unix ist sc..
Hallo,
ich habe vor ein paar Tagen drei neue WD500 Festplatten in meinen o'bsdserver eingebaut, um mit raidframe ein raid 5 aus diesen Platten zu erzeugen.
Sie sind über einen "CMD Technology SiI3114 SATA"-Controller (PCI) verbunden.
Dann habe ich mit disklabel auf den Platten jeweils eine Partition des Typs RAID voller größe angelegt, und habe mir eine raidkonfiguration angelegt:
Das array habe ich ordnungsgemäß initialisiert (gemäß man raidctl() und ein disklabel angelegt:
Die höchste Performanz hatte ich bei Stripe-größe von 64K und Dateisystemblockgröße von ebenfalls 64K (bsize). Da ich in raid0a auch Homeverzeichnisse lagern möchte habe ich mich für den Kompromiss 32K Stripegröße entschieden. Denn da lassen sich sowohl 32K- als auch 64K-Block-große Dateisysteme einigermaßen Performant betreiben.
Das Formatieren und testen der ersten Partition hat auch funktioniert: Hier lässt sich eine 920M große Datei von einer anderen Festplatte in 46 sek. draufkopieren.
...
HÄ?
Nach dem erstellen des Dateisystems wurde die Anzahl der Cylinder pro Gruppe von 32 auf 1 geändert.
920M Datei draufkopieren dauert nun 139 sec.
Selbiges passiert auf raid0d.
Was mache ich falsch?
ich habe vor ein paar Tagen drei neue WD500 Festplatten in meinen o'bsdserver eingebaut, um mit raidframe ein raid 5 aus diesen Platten zu erzeugen.
Sie sind über einen "CMD Technology SiI3114 SATA"-Controller (PCI) verbunden.
Dann habe ich mit disklabel auf den Platten jeweils eine Partition des Typs RAID voller größe angelegt, und habe mir eine raidkonfiguration angelegt:
Code:
/etc/raid0.conf
START array
# numRow numCol HotSpares
1 3 0
START disks
/dev/wd1a
/dev/wd2a
/dev/wd3a
START layout
# sectPerSU SUsPerParityUnit SUsPerReconUnit RAID_level_5
32 1 1 5
START queue
fifo 100
Das array habe ich ordnungsgemäß initialisiert (gemäß man raidctl() und ein disklabel angelegt:
Code:
/dev/rraid0c:
type: RAID
disk: raid
label: fictitious
flags:
bytes/sector: 512
sectors/track: 64
tracks/cylinder: 12
sectors/cylinder: 768
cylinders: 2543679
total sectors: 1953546176
rpm: 3600
interleave: 1
trackskew: 0
cylinderskew: 0
headswitch: 0 # microseconds
track-to-track seek: 0 # microseconds
drivedata: 0
16 partitions:
# size offset fstype [fsize bsize cpg]
a: 195354617 0 4.2BSD 4096 32768 32
b: 683741100 195354617 4.2BSD 8192 65536 [B]32[/B]
c: 1953546176 0 unused 0 0
d: 879095700 879095717 4.2BSD 8192 65536 32
Die höchste Performanz hatte ich bei Stripe-größe von 64K und Dateisystemblockgröße von ebenfalls 64K (bsize). Da ich in raid0a auch Homeverzeichnisse lagern möchte habe ich mich für den Kompromiss 32K Stripegröße entschieden. Denn da lassen sich sowohl 32K- als auch 64K-Block-große Dateisysteme einigermaßen Performant betreiben.
Das Formatieren und testen der ersten Partition hat auch funktioniert: Hier lässt sich eine 920M große Datei von einer anderen Festplatte in 46 sek. draufkopieren.
...
Code:
# newfs /dev/rraid0b
..... ERFOLG
# disklabel raid0
...
# size offset fstype [fsize bsize cpg]
a: 195354617 0 4.2BSD 4096 32768 32
b: 683741100 195354617 4.2BSD 8192 65536 [B]1[/B]
c: 1953546176 0 unused 0 0
d: 879095700 879095717 4.2BSD 8192 65536 32
HÄ?
Nach dem erstellen des Dateisystems wurde die Anzahl der Cylinder pro Gruppe von 32 auf 1 geändert.
920M Datei draufkopieren dauert nun 139 sec.
Selbiges passiert auf raid0d.
Was mache ich falsch?