IBM i og disk

Normalt trenger du ikke tenke på håndtering av IBM i diskene, operativsystemet tar seg av det, men noen områder av diskhåndtering bør du tenke på. Her er noen råd og tips knyttet til disker på IBM i.

For det første gjelder det å ha nok disker både til å lagre data, men også til å ha nok kapasitet til å ta unna lese- og skriveoperasjoner slik at dette ikke blir en flaskehals i systemet.

IBM i kan benytte flere disktyper, og det er et spørsmål om du bør velge interne disker eller eksterne disksystemer. Hvis du ikke allerede har lest disse artiklene, bør du ta deg tid til det. De forteller mye om fordelene både med SSD og eksterne disksystemer som IBM Storwize.

Basefarm valgte virtualisering

Da vi startet designet av Basefarm Power-server infrastruktur høsten 2014, var det ikke tvil om hvordan disksystemene skulle være: eksterne IBM virtualiserte diskløsninger. Nettopp fordi vi vil ha mange virtuelle servere – logiske partisjoner – kjørende på Power servere, er det mest fleksibelt med virtualisert lagring – der IBM i får presentert logiske disker fra det underliggende virtualiserte disksystemet. Samtidig vet vi at disse lagringssystemene har stor kapasitet for «caching», slik at skriveoperasjoner til disk går meget raskt. I tillegg kan vi ta i bruk avanserte funksjoner som HyperSwap på tvers av datsenterene – for å sikre at en virtuell server kan kjøre videre hvis et datasenter skulle bli utilgjengelig.

Kostbart med interne disker

Skulle vi ha valgt interne disker ville dette blitt alt for statisk og tungvint, og faktisk mer kostbart når vi summerer opp prisen for diskhyller, disker og RAID kontrollere internt i en Power-server sammenlignet med for eksempel Storwize. For vår del var det viktigst med fleksibilitet, muligheten for enkelt å koble nye disker til nye virtuelle servere, øke eller redusere diskkapasitet for disse, og eventuelt fjerne virtuelle servere og gjenbruke kapasiteten for andre virtuelle servere.

Hva må du passe på ved kombinasjonen IBM i operativsystem og ekstern lagring?

Diskarmer og kø-dybde

Det viktigste er kanskje å gi IBM i nok LUN, det vil si antall virtuelle disker. Egentlig er dette det samme med interne disker: antall diskarmer er avgjørende for ytelsen. Dette har med kø-dybde å gjøre, det vil si hvor mange skrive/lese operasjoner IBM i kan sende avgårde til disksystemet før det må ha svar. IBM i har en kø-dybde på 32 og denne kan ikke endres.

Andre operativsystem kan variere denne størrelsen. For eksempel kan AIX ha kø-dybde fra 1–256. Ta gjerne en kikk på AIX/VIOS Disk and Adapter IO Queue Tuning for å se hvordan dette gjøres på AIX.

Hvis IBM i trenger lagringskapasitet på 1600 GB, er det bedre å lage 20 x 80GB disker fremfor 2 x 800GB. Dermed får IBM i spredd IOPS (Input/Output Operations) på flere «diskarmer».

Ekstern disksystem IOPS kapasitet

Lagringssystemer som Storwize kan i teorien ha meget stor IOPS-kapasitet, men til syvende og sist kommer det an på summen av fysiske disker, enten dette er «roterende rust» eller SSD disker.

Tabellen nedenfor er hentet fra «AIX/VIOS Disk and Adapter IO Queue Tuning»

IOPS for ulike disker

Diskdrive Hastighet Rotational latency Gjennomsnittlig søktetid IOps
15k 3,5” FC 15000 rpm 2 ms 3,5 ms 182
10k 3,5” FC 10000 rpm 3 ms 4,5 ms 133
15k 2,5” SAS 15000 rpm 2 ms 3,1 ms 196
10k 2,5” SAS 10000 rpm 3 ms 4,2 ms 139
7,2k SATA2 7200 rpm 4,2 ms 9 ms 76

Har du fire disker med SATA 7200 rpm har disse mulighet for stor lagringskapasitet, du får disse med 2TB kapasitet til Storwize, og med RAID5 3 x 2TB får du 6 TB netto lagring. Det gir kun 4 x 76 = 303 IOPS, mens samme diskvolum fordelt på 12 x 600GB 1500 rpm SAS disker fordelt på 2 RAID5 sett gir 10 x 182 = 1820 IOPS. Samme lagringsvolum, men rundt seks ganger mer ytelse på lese- og skriveoperasjoner.

Tabellen nedenfor er hentet fra «AIX/VIOS Disk and Adapter IO Queue Tuning» og viser SSD ytelse.

Power eMLC SSD ytelse per generasjon

2,5” (SFF) IO-operasjoner per sekund (IOPS) MB/s Latency – responstid
SSD Random read Random write Random mixed read/write Read Write Random mixed read/write
1 gen 177 BG 15 k 4 k 11 k (70%-30%) 170 MB 64 MB /24-12%) 0,31 ms
2 gen 387 GB 39 k 22 k 24 k (70%-30%) 348 MB 375 MB 0,25 ms
3 gen 387 GB 775 GB 80 k 49 k 58 k (60%-40%) 340 MB 450 MB 0,15 ms
15k rpm HDD 0,12-0,4 k 0,12-0,4 k 0,12-0,4 k 175 MB 175 MB 8,3-2,5 ms

Configuring IBM Storwize V7000 and SVC for Optimal Performance Part 1 og 2

Denne tabellen viser litt andre tall, men igjen har Enterprise SSD langt høyere IOPS enn vanlige disker.

Drive type Hastighet RPM Kapasitet IOPs MB/s Kommentar
Nearline SAS 7,2k rpm 1TB-3TB 100-150 80-100 High density – lowest performance
SAS 10k rpm 300GB-1,2TB 200-300 100-150 Average density – midrange performance
SAS 15k rpm 146GB-600GB 300-500 125-175 Lowest density – highest performance
Forbruker SSD N/a 32GB-1TB 1000-5000 100-500 All density – good performance – reability? Warranty 1 year+???
Enterprise SSD N/a 146GB-400GB 10000-50000 100-500 All density – high performance – guaranteed reability 3-5 year

En GB er ikke en GB

Fordi IBM i bruker en annen blokkstørrelse på disk enn andre operativsystem, 820 byte mot 812, vil et LUN på 157 GB dukke opp som en disk på 149 GB på IBM i. Dette er vist i Storwize BF-IBMiTEST og BF-IBMiTEST WRKDSKSTS for samme server. Dermed «mister» du rundt 5 prosent av diskvolumet du avsetter på Storwize til IBM i.

Storwize BF-IBMiTEST

BF-IBMiTEST WRKDSKSTS

Legg også merke til at Disk Unit 1 har 68 prosent diskbelegg, mens Disk Unit 2 har kun 10,2 prosent. Dette skyldes at disk 2 (BF-IBMiTEST5-2) nettopp er lagt til, og det kjøres
STRASPBAL TYPE(*CAPACITY) ASP(1) TIMLMT(*NOMAX) for å balansere datamengden likt på diskene. Etter at Start ASP Balance kommandoen har gjort jobbe ser det slik ut:

BF-IBMiTEST WRKDSKSTS etter STRASPBAL

Disk type 2145 betyr at dette er en disk fra Storwize som enten er koblet direkte eller gjennom VIOS med virtuell Fiber Channel –vFC – NPIV.

Det er flere ting å tenke på enn det som er skissert her. Ta gjerne en kikk på Hints and Tips: V7000 in an IBM i Environment

Denne viser blant annet prinsippet med to VIOS (Virtual I/O Server) for å sikre fail-over for diskene med multi-path. Her er det også anbefalinger på størrelsen på LUN til IBM i, og forskjeller på vSCSI og vFC konfigurasjon av LUN gjennom VIOS til IBM i.

VIOS med Virtual FC og Virtual SCSI

Hva kan kobles eksternt mot IBM i?

Vil du se hva du kan koble opp mot IBM i så er det en bra oversikt her: IBM i POWER External Storage Support Matrix Summary

Hva kan kobles internt mot IBM i?

Hvis du vil se hvilke disker du kan bruke internt i en Power server for IBM i: IBM Power Systems DASD Feature Quick Reference