newfs ändert "Cylinders per group"? (RAID5)

cuddlytux

cuddlytux

Alles außer unix ist sc..
Hallo,

ich habe vor ein paar Tagen drei neue WD500 Festplatten in meinen o'bsdserver eingebaut, um mit raidframe ein raid 5 aus diesen Platten zu erzeugen.
Sie sind über einen "CMD Technology SiI3114 SATA"-Controller (PCI) verbunden.
Dann habe ich mit disklabel auf den Platten jeweils eine Partition des Typs RAID voller größe angelegt, und habe mir eine raidkonfiguration angelegt:
Code:
/etc/raid0.conf
START array
# numRow numCol HotSpares
1 3 0

START disks
/dev/wd1a
/dev/wd2a
/dev/wd3a

START layout
# sectPerSU SUsPerParityUnit SUsPerReconUnit RAID_level_5
32 1 1 5

START queue
fifo 100

Das array habe ich ordnungsgemäß initialisiert (gemäß man raidctl(8)) und ein disklabel angelegt:
Code:
/dev/rraid0c:
type: RAID
disk: raid
label: fictitious
flags:
bytes/sector: 512
sectors/track: 64
tracks/cylinder: 12
sectors/cylinder: 768
cylinders: 2543679
total sectors: 1953546176
rpm: 3600
interleave: 1
trackskew: 0
cylinderskew: 0
headswitch: 0           # microseconds
track-to-track seek: 0  # microseconds
drivedata: 0 

16 partitions:
#                size           offset  fstype [fsize bsize  cpg]
  a:        195354617                0  4.2BSD   4096 32768   32 
  b:        683741100        195354617  4.2BSD   8192 65536   [B]32[/B] 
  c:       1953546176                0  unused      0     0      
  d:        879095700        879095717  4.2BSD   8192 65536    32

Die höchste Performanz hatte ich bei Stripe-größe von 64K und Dateisystemblockgröße von ebenfalls 64K (bsize). Da ich in raid0a auch Homeverzeichnisse lagern möchte habe ich mich für den Kompromiss 32K Stripegröße entschieden. Denn da lassen sich sowohl 32K- als auch 64K-Block-große Dateisysteme einigermaßen Performant betreiben.

Das Formatieren und testen der ersten Partition hat auch funktioniert: Hier lässt sich eine 920M große Datei von einer anderen Festplatte in 46 sek. draufkopieren.

...

Code:
# newfs /dev/rraid0b
..... ERFOLG
# disklabel raid0
...
#                size           offset  fstype [fsize bsize  cpg]
  a:        195354617                0  4.2BSD   4096 32768   32 
  b:        683741100        195354617  4.2BSD   8192 65536   [B]1[/B] 
  c:       1953546176                0  unused      0     0      
  d:        879095700        879095717  4.2BSD   8192 65536    32

HÄ?

Nach dem erstellen des Dateisystems wurde die Anzahl der Cylinder pro Gruppe von 32 auf 1 geändert.
920M Datei draufkopieren dauert nun 139 sec.
Selbiges passiert auf raid0d.

Was mache ich falsch?
 

Ähnliche Themen

[gelöst] 2.HDD unter Freebsd partitionieren

Neue Partition unter openSUSE 12.2 erstellen

Rollei Mini Wifi Camcorder

USB Festplatte wird nicht erkannt

Wo sind die Geräte?

Zurück
Oben