Gå til innhold

SSD-tråden: info om og diskusjon rundt SSD


Anbefalte innlegg

Videoannonse
Annonse

Er det noen som vet om disse 900p SSD'ene blir det samme som å ha en optane modul og tilsvarende rask SSD? Altså at 900p er optane for folk med HK som ikke har optane slot/modul i utgangspunktet?

 

Optane modulene er betydelig tregere, de har omtrent samme ytelsen som Intel S3700 på random 4kb writes.

Lenke til kommentar

 

Sikkert et teit spørsmål, men er det andre krav for å sette inn en slik enn at man har pci-e 3.0? Altså om det kan brukes på eldre brikkesett som z68?

 

Hovedkortet må støtte å boote fra NVMe SSD, noe Z68 ikke gjør om jeg husker riktig.

 

 

Sjekk her

Samt her

Endret av johome
  • Liker 1
Lenke til kommentar

 

Noen norske butikker som selger Optane 900P ennå?

 

Nei, men midten av November kommer det noe på lager visst nok. Vi får bare vente å se.

 

Prisen på over 10k for 900P i 480 GB-versjon visers seg forresten å være feil. Digital Impuls sjekket med importøren og fikk oppgitt ca 6500,- ink mva.

Lenke til kommentar

 

 

Noen norske butikker som selger Optane 900P ennå?

 

Nei, men midten av November kommer det noe på lager visst nok. Vi får bare vente å se.

 

Prisen på over 10k for 900P i 480 GB-versjon visers seg forresten å være feil. Digital Impuls sjekket med importøren og fikk oppgitt ca 6500,- ink mva.

 

 

Gode nyheter det :) 10K er litt vel drøy pris, om den hadde stemt.

Endret av Betroz
Lenke til kommentar

Har fått testa 900p 280GB

 

FreeBSD diskinfo zfs zlog benchmark

 

./diskinfo -vSw /dev/nvd3
    512             # sectorsize
    280065171456    # mediasize in bytes (261G)
    547002288       # mediasize in sectors
    0               # stripesize
    0               # stripeoffset
    PHM27390005F280AGN    # Disk ident.

Synchronous random writes:
     0.5 kbytes:     17.3 usec/IO =     28.2 Mbytes/s
       1 kbytes:     17.6 usec/IO =     55.5 Mbytes/s
       2 kbytes:     18.0 usec/IO =    108.3 Mbytes/s
       4 kbytes:     14.6 usec/IO =    267.6 Mbytes/s
       8 kbytes:     17.1 usec/IO =    456.5 Mbytes/s
      16 kbytes:     22.0 usec/IO =    710.1 Mbytes/s
      32 kbytes:     32.9 usec/IO =    950.2 Mbytes/s
      64 kbytes:     57.5 usec/IO =   1086.9 Mbytes/s
     128 kbytes:    115.6 usec/IO =   1081.7 Mbytes/s
     256 kbytes:    175.9 usec/IO =   1421.1 Mbytes/s
     512 kbytes:    300.3 usec/IO =   1665.3 Mbytes/s
    1024 kbytes:    556.2 usec/IO =   1797.9 Mbytes/s
    2048 kbytes:   1073.1 usec/IO =   1863.8 Mbytes/s
    4096 kbytes:   2108.3 usec/IO =   1897.2 Mbytes/s
    8192 kbytes:   4224.9 usec/IO =   1893.6 Mbytes/s

 

pg_test_fsync

 

pg_test_fsync -f /dev/nvd3
5 seconds per test
O_DIRECT supported on this platform for open_datasync and open_sync.

Compare file sync methods using one 8kB write:
(in wal_sync_method preference order, except fdatasync is Linux's default)
        open_datasync                                   n/a
        fdatasync                         32464.288 ops/sec      31 usecs/op
        fsync                             32342.334 ops/sec      31 usecs/op
        fsync_writethrough                              n/a
        open_sync                         31136.797 ops/sec      32 usecs/op

Compare file sync methods using two 8kB writes:
(in wal_sync_method preference order, except fdatasync is Linux's default)
        open_datasync                                   n/a
        fdatasync                         25099.916 ops/sec      40 usecs/op
        fsync                             25343.201 ops/sec      39 usecs/op
        fsync_writethrough                              n/a
        open_sync                         25661.702 ops/sec      39 usecs/op

Compare open_sync with different write sizes:
(This is designed to compare the cost of writing 16kB in different write
open_sync sizes.)
         1 * 16kB open_sync write         28435.039 ops/sec      35 usecs/op
         2 *  8kB open_sync writes        25286.818 ops/sec      40 usecs/op
         4 *  4kB open_sync writes        14522.470 ops/sec      69 usecs/op
         8 *  2kB open_sync writes         4124.340 ops/sec     242 usecs/op
        16 *  1kB open_sync writes         1850.520 ops/sec     540 usecs/op

Test if fsync on non-write file descriptor is honored:
(If the times are similar, fsync() can sync data written on a different
descriptor.)
        write, fsync, close                 573.837 ops/sec    1743 usecs/op
        write, close, fsync                 618.194 ops/sec    1618 usecs/op

Non-sync'ed 8kB writes:
        write                              1179.325 ops/sec     848 usecs/op

 

fio 4kb sync write

 

fio --filename=/dev/nvme3ns1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=psync, iodepth=1
fio-3.1
Starting 1 process
Jobs: 1 (f=1): [W(1)][100.0%][r=0KiB/s,w=230MiB/s][r=0,w=58.0k IOPS][eta 00m:00s]
journal-test: (groupid=0, jobs=1): err= 0: pid=20397: Mon Nov  6 14:59:01 2017
  write: IOPS=59.7k, BW=233MiB/s (245MB/s)(13.7GiB/60001msec)
    clat (usec): min=11, max=190, avg=15.35, stdev= 7.46
     lat (usec): min=12, max=190, avg=15.44, stdev= 7.47
    clat percentiles (nsec):
     |  1.00th=[12352],  5.00th=[12480], 10.00th=[12608], 20.00th=[12736],
     | 30.00th=[12736], 40.00th=[12864], 50.00th=[12864], 60.00th=[12992],
     | 70.00th=[13120], 80.00th=[13376], 90.00th=[18816], 95.00th=[35072],
     | 99.00th=[46336], 99.50th=[49920], 99.90th=[60672], 99.95th=[64256],
     | 99.99th=[79360]
   bw (  KiB/s): min=229806, max=244166, per=98.75%, avg=236000.92, stdev=3194.80, samples=119
   iops        : min=57451, max=61039, avg=58999.86, stdev=798.60, samples=119
  lat (usec)   : 20=91.00%, 50=8.52%, 100=0.48%, 250=0.01%
  cpu          : usr=11.07%, sys=21.14%, ctx=3584992, majf=0, minf=0
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=0,3584979,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: bw=233MiB/s (245MB/s), 233MiB/s-233MiB/s (245MB/s-245MB/s), io=13.7GiB (14.7GB), run=60001-60001msec

 

fio 16 jobs

 

fio --filename=/dev/nvme3ns1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=16 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=psync, iodepth=1
...
fio-3.1
Starting 16 processes
Jobs: 16 (f=16): [W(16)][100.0%][r=0KiB/s,w=1927MiB/s][r=0,w=493k IOPS][eta 00m:00s]
journal-test: (groupid=0, jobs=16): err= 0: pid=20422: Mon Nov  6 15:03:57 2017
  write: IOPS=476k, BW=1860MiB/s (1950MB/s)(109GiB/60001msec)
    clat (usec): min=11, max=2558, avg=31.90, stdev=17.32
     lat (usec): min=11, max=2559, avg=32.06, stdev=17.33
    clat percentiles (usec):
     |  1.00th=[   18],  5.00th=[   20], 10.00th=[   21], 20.00th=[   22],
     | 30.00th=[   23], 40.00th=[   23], 50.00th=[   25], 60.00th=[   26],
     | 70.00th=[   29], 80.00th=[   48], 90.00th=[   59], 95.00th=[   65],
     | 99.00th=[   94], 99.50th=[  100], 99.90th=[  123], 99.95th=[  130],
     | 99.99th=[  149]
   bw (  KiB/s): min=46994, max=124560, per=6.24%, avg=118849.26, stdev=10748.65, samples=1906
   iops        : min=11748, max=31140, avg=29712.08, stdev=2687.18, samples=1906
  lat (usec)   : 20=8.87%, 50=71.64%, 100=19.01%, 250=0.48%, 500=0.01%
  lat (usec)   : 750=0.01%, 1000=0.01%
  lat (msec)   : 2=0.01%, 4=0.01%
  cpu          : usr=7.07%, sys=12.74%, ctx=31142314, majf=0, minf=0
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwt: total=0,28565546,0, short=0,0,0, dropped=0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: bw=1860MiB/s (1950MB/s), 1860MiB/s-1860MiB/s (1950MB/s-1950MB/s), io=109GiB (117GB), run=60001-60001msec

 

Uten tvil noko raskere enn Intel DC p4800x

Lenke til kommentar

Har tilgang til lab i statene som jeg logger meg inn på for å evaluere ny hardware.

900p er ca 10 ganger raskere på det fleste io-operasjoner samanlikna mot 750, største forskjellen er når du har random sync write på 4kb med 10+ tråder. Ytelsen på FreeBSD og Linux er overlegen Windows 10.

Lenke til kommentar

Ytelsen på FreeBSD og Linux er overlegen Windows 10.

 

Okay. Bare rynd at det kan være litt køddent å sette oppe Linux og Win10 på samme maskin med UEFI/Secure Boot. Skal man installere Win10 og Linux på en NVMe SSD, så funker vel ikke det med Legacy boot. 

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...