Hiệu suất IO kém - PCIe NVMe Samsung 950 pro


20

Tôi vừa hoàn thành một bản dựng phần cứng mong đợi một lợi ích lớn từ ổ đĩa NVMe mới. Hiệu suất trước đây của tôi thấp hơn dự kiến ​​(~ 3gb được chuyển), vì vậy tôi đã thay thế bo mạch chủ / cpu / bộ nhớ / hdd. Trong khi hiệu suất cao gấp đôi những gì nó , nó vẫn là một nửa những gì tôi nhận được trên 3 năm tuổi của tôi macbook pro với một ổ đĩa SATA6.

  • CPU: i7-5820k 6 lõi
  • Mobo: MPOWER MSI X99A
  • Bộ nhớ: 32GB
  • Ổ đĩa: Samsung 950 pro NVMe PCIe

Ubuntu (cũng được xác nhận với 16.04.1 LTS):

Release:    15.10
Codename:   wily

4.2.0-16-generic

$ sudo blkid
[sudo] password for kross: 
/dev/nvme0n1p4: UUID="2997749f-1895-4581-abd3-6ccac79d4575" TYPE="swap"
/dev/nvme0n1p1: LABEL="SYSTEM" UUID="C221-7CA5" TYPE="vfat"
/dev/nvme0n1p3: UUID="c7dc0813-3d18-421c-9c91-25ce21892b9d" TYPE="ext4"

Đây là kết quả kiểm tra của tôi:

sysbench --test=fileio --file-total-size=128G prepare
sysbench --test=fileio --file-total-size=128G --file-test-mode=rndrw --max-time=300 --max-requests=0 run
sysbench --test=fileio --file-total-size=128G cleanup


Operations performed:  228000 Read, 152000 Write, 486274 Other = 866274 Total
Read 3.479Gb  Written 2.3193Gb  Total transferred 5.7983Gb  (19.791Mb/sec)
 1266.65 Requests/sec executed

Test execution summary:
    total time:                          300.0037s
    total number of events:              380000
    total time taken by event execution: 23.6549
    per-request statistics:
         min:                                  0.01ms
         avg:                                  0.06ms
         max:                                  4.29ms
         approx.  95 percentile:               0.13ms

Threads fairness:
    events (avg/stddev):           380000.0000/0.00
    execution time (avg/stddev):   23.6549/0.00

Bộ lập lịch được đặt thành none:

# cat /sys/block/nvme0n1/queue/scheduler
none

Đây là lspcithông tin:

# lspci -vv -s 02:00.0
02:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd Device a802 (rev 01) (prog-if 02 [NVM Express])
    Subsystem: Samsung Electronics Co Ltd Device a801
    Physical Slot: 2-1
    Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR+ FastB2B- DisINTx+
    Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
    Latency: 0, Cache Line Size: 32 bytes
    Interrupt: pin A routed to IRQ 45
    Region 0: Memory at fb610000 (64-bit, non-prefetchable) [size=16K]
    Region 2: I/O ports at e000 [size=256]
    Expansion ROM at fb600000 [disabled] [size=64K]
    Capabilities: [40] Power Management version 3
        Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
        Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
    Capabilities: [50] MSI: Enable- Count=1/8 Maskable- 64bit+
        Address: 0000000000000000  Data: 0000
    Capabilities: [70] Express (v2) Endpoint, MSI 00
        DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
            ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
        DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
            RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
            MaxPayload 128 bytes, MaxReadReq 512 bytes
        DevSta: CorrErr+ UncorrErr- FatalErr- UnsuppReq+ AuxPwr+ TransPend-
        LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L0s <4us, L1 <64us
            ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+
        LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+
            ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
        LnkSta: Speed 8GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
        DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR+, OBFF Not Supported
        DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
        LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
             Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
             Compliance De-emphasis: -6dB
        LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1+
             EqualizationPhase2+, EqualizationPhase3+, LinkEqualizationRequest-
    Capabilities: [b0] MSI-X: Enable+ Count=9 Masked-
        Vector table: BAR=0 offset=00003000
        PBA: BAR=0 offset=00002000
    Capabilities: [100 v2] Advanced Error Reporting
        UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
        UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
        CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
        AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
    Capabilities: [148 v1] Device Serial Number 00-00-00-00-00-00-00-00
    Capabilities: [158 v1] Power Budgeting <?>
    Capabilities: [168 v1] #19
    Capabilities: [188 v1] Latency Tolerance Reporting
        Max snoop latency: 0ns
        Max no snoop latency: 0ns
    Capabilities: [190 v1] L1 PM Substates
        L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
              PortCommonModeRestoreTime=10us PortTPowerOnTime=10us
    Kernel driver in use: nvme

hdparm:

$ sudo hdparm -tT --direct /dev/nvme0n1

/dev/nvme0n1:
 Timing O_DIRECT cached reads:   2328 MB in  2.00 seconds = 1163.98 MB/sec
 Timing O_DIRECT disk reads: 5250 MB in  3.00 seconds = 1749.28 MB/sec

hdparm -v:

 sudo hdparm -v /dev/nvme0n1

/dev/nvme0n1:
SG_IO: questionable sense data, results may be incorrect
 multcount     =  0 (off)
 readonly      =  0 (off)
 readahead     = 256 (on)
 geometry      = 488386/64/32, sectors = 1000215216, start = 0

fstab

UUID=453cf71b-38ca-49a7-90ba-1aaa858f4806 /               ext4    noatime,nodiratime,errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
#UUID=C221-7CA5  /boot/efi       vfat    defaults        0       1
# swap was on /dev/sda4 during installation
UUID=8f716653-e696-44b1-8510-28a1c53f0e8d none            swap    sw              0       0
UUID=C221-7CA5  /boot/efi       vfat    defaults        0       1

fio

Điều này có một số điểm chuẩn tương đương nó là cách. Khi tôi thử nghiệm với fio và bị vô hiệu hóa sync, đó là một câu chuyện khác:

sync=1
1 job  - write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
7 jobs - write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec

sync=0
1 job  - write: io=8157.9MB, bw=139225KB/s, iops=34806, runt= 60001msec
7 jobs - write: io=32668MB, bw=557496KB/s, iops=139373, runt= 60004msec

Đây là synckết quả đầy đủ cho một công việc và 7 công việc:

$ sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
fio-2.1.11
Starting 1 process
Jobs: 1 (f=1): [W(1)] [100.0% done] [0KB/2368KB/0KB /s] [0/592/0 iops] [eta 00m:00s]
journal-test: (groupid=0, jobs=1): err= 0: pid=18009: Wed Nov 18 18:14:03 2015
  write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
    clat (usec): min=1442, max=12836, avg=1643.09, stdev=546.22
     lat (usec): min=1442, max=12836, avg=1643.67, stdev=546.23
    clat percentiles (usec):
     |  1.00th=[ 1480],  5.00th=[ 1496], 10.00th=[ 1512], 20.00th=[ 1528],
     | 30.00th=[ 1576], 40.00th=[ 1592], 50.00th=[ 1608], 60.00th=[ 1608],
     | 70.00th=[ 1608], 80.00th=[ 1624], 90.00th=[ 1640], 95.00th=[ 1672],
     | 99.00th=[ 2192], 99.50th=[ 6944], 99.90th=[ 7328], 99.95th=[ 7328],
     | 99.99th=[ 7520]
    bw (KB  /s): min= 2272, max= 2528, per=100.00%, avg=2430.76, stdev=61.45
    lat (msec) : 2=98.44%, 4=0.58%, 10=0.98%, 20=0.01%
  cpu          : usr=0.39%, sys=3.11%, ctx=109285, majf=0, minf=8
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=36428/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=145712KB, aggrb=2428KB/s, minb=2428KB/s, maxb=2428KB/s, mint=60002msec, maxt=60002msec

Disk stats (read/write):
  nvme0n1: ios=69/72775, merge=0/0, ticks=0/57772, in_queue=57744, util=96.25%

$ sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=7 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
...
fio-2.1.11
Starting 7 processes
Jobs: 6 (f=6): [W(2),_(1),W(4)] [50.4% done] [0KB/4164KB/0KB /s] [0/1041/0 iops] [eta 01m:00s]
journal-test: (groupid=0, jobs=7): err= 0: pid=18025: Wed Nov 18 18:15:10 2015
  write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec
    clat (usec): min=0, max=107499, avg=6828.48, stdev=3056.21
     lat (usec): min=0, max=107499, avg=6829.10, stdev=3056.16
    clat percentiles (usec):
     |  1.00th=[    0],  5.00th=[ 2992], 10.00th=[ 4512], 20.00th=[ 4704],
     | 30.00th=[ 5088], 40.00th=[ 6176], 50.00th=[ 6304], 60.00th=[ 7520],
     | 70.00th=[ 7776], 80.00th=[ 9024], 90.00th=[10048], 95.00th=[12480],
     | 99.00th=[15936], 99.50th=[18048], 99.90th=[22400], 99.95th=[23936],
     | 99.99th=[27008]
    bw (KB  /s): min=  495, max=  675, per=14.29%, avg=585.60, stdev=28.07
    lat (usec) : 2=4.41%
    lat (msec) : 2=0.57%, 4=4.54%, 10=80.32%, 20=9.92%, 50=0.24%
    lat (msec) : 250=0.01%
  cpu          : usr=0.14%, sys=0.72%, ctx=173735, majf=0, minf=63
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=61472/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=245888KB, aggrb=4097KB/s, minb=4097KB/s, maxb=4097KB/s, mint=60005msec, maxt=60005msec

Disk stats (read/write):
  nvme0n1: ios=21/122801, merge=0/0, ticks=0/414660, in_queue=414736, util=99.90%

Sắp xếp

Tôi đã kiểm tra sự liên kết với parted, cũng như toán học dựa trên http://www.intel.com/content/dam/www/public/us/en/document/tĩ-briefs/ssd-partition-alocate-tech -brief.pdf

kross@camacho:~$ sudo parted
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s                                                           
(parted) print all                                                        
Model: Unknown (unknown)
Disk /dev/nvme0n1: 1000215216s
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start       End          Size        File system     Name                                 Flags
 1      2048s       206847s      204800s     fat32           EFI system partition                 boot, esp
 2      206848s     486957055s   486750208s  ntfs                                                 msftdata
 3      486957056s  487878655s   921600s     ntfs                                                 hidden, diag
 4      590608384s  966787071s   376178688s  ext4
 5      966787072s  1000214527s  33427456s   linux-swap(v1)

kross@camacho:~$ sudo parted /dev/nvme0n1
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) align-check opt 1                                                
1 aligned
(parted) align-check opt 2
2 aligned
(parted) align-check opt 3
3 aligned
(parted) align-check opt 4
4 aligned
(parted) align-check opt 5
5 aligned

TLDR;

Tôi cảm thấy như tôi có một cái gì đó về cơ bản được đặt không chính xác, mặc dù nghiên cứu của tôi đã không đưa ra bất cứ điều gì. Tôi đang mong đợi thông lượng ~ gấp 4 lần macbook pro 3yr cũ của tôi với w / SATA6 và tôi nhận được 1/2 số đó với NVMe. Tôi đã thêm vào noatime,nodiratimeđó đã mang lại cho tôi một cải tiến rất nhỏ, nhưng không có gì giống như 4x tôi mong đợi. Tôi đã phân vùng lại / cài đặt lại máy chủ 15.10 mới để đảm bảo rằng tôi không có bất cứ điều gì còn sót lại và có kết quả tương tự.

fiokết quả của tôi ở trên đồng bộ hóa / không có dấu hiệu đồng bộ hóa của một vấn đề?

Vì vậy, tôi có một bảng đá sạch và có thể thử bất cứ điều gì. Tôi có thể cố gắng làm gì để đạt hiệu suất của mình ngang bằng? Bất kỳ tài liệu tham khảo đều được chào đón.


Đầu ra của những gì smartctl --scanvà sau đó một smartctl --all /dev/xxxnơi xxxđược bất cứ điều gì nảy ra trong lệnh đầu tiên ???
Fabby

@fabby apt-get install smartmontoolsthất bại với grub-probe: error: cannot find a GRUB drive for /dev/nvme0n1p3. Check your device.map.. Nó xuất hiện (dựa trên nỗ lực của tôi) update-grubkhông hoạt động tốt do grub-probelỗi. smartctl -i /dev/nvme0n1Trả về /dev/nvme0n1: Unable to detect device type. Please specify device type with the -d option. NVMe không xuất hiện smartctl -hdưới dạng loại thiết bị.
kross

sản lượng của uname --kernel-release&&lsb_release --code --short???
Fabby

4.2.0-16-generic wily
kross

Tôi có thể hoàn toàn sai và tôi không thể tìm thấy nguồn hiện tại, nhưng như tôi nghĩ, bạn cần một Skylakebộ xử lý để chạy các SSD đó ở tốc độ tối đa ...
wawa

Câu trả lời:


5

Cảm ơn bạn cho câu hỏi của bạn, nó đã rất hữu ích cho tôi.

Tôi có trải nghiệm rất giống nhau, thiết lập phần cứng khác nhau (Tôi đang sử dụng SSD Intel NVMe). Nhưng tôi cũng đang chạy Ubuntu 16.04. Đưa ra bằng chứng của bạn và một kết quả tương tự được tìm thấy trong bài viết này, tôi đã bị thuyết phục rằng vấn đề là ở cách Ubuntu thiết lập các ổ NVMe.

Tôi đã quyết tâm giải quyết vấn đề mà không từ bỏ hoàn toàn trên Ubuntu. Nhưng bất kể tôi đã làm gì, tôi không thể đạt tốc độ trên 2000 MB / giây khi thử nghiệm với hdparm chính xác như bạn mô tả.

Vì vậy, tôi đã thực hiện một số hoạt động đào và tìm thấy một hướng dẫn do Intel cung cấp. Tôi đã thử mọi thứ họ đề nghị trong hướng dẫn này và thấy rằng một phần là khác nhau. Gần phía dưới, nó thảo luận về việc căn chỉnh các phân vùng ổ đĩa một cách chính xác. Đây là một phần không phù hợp với cài đặt của tôi. Khối khởi đầu của tôi không chia hết cho 4096 byte. Nó đã sử dụng kích thước cung 512 byte thay vì kích thước cung 4k.

Chắc chắn, tôi đã định dạng đĩa để bắt đầu phân vùng với giá trị chia hết cho 4096 và CUỐI CÙNG tôi có thể phá vỡ tốc độ 2000 MB / s.

Ngay bây giờ, tốc độ trung bình là 2,3 GB / giây khi tôi hy vọng nó sẽ cao hơn một chút. Tôi đổ lỗi cho điều này khi tôi chạy sudo fdisk -lổ NVMe vẫn được hiển thị với kích thước cung cấp vật lý là 512 byte. Tôi dự định tiếp tục điều tra nhưng tôi hy vọng điều này sẽ giúp bạn!


Cảm ơn, tôi sẽ kiểm tra lại sự liên kết của tôi một lần nữa. Tôi biết tôi đã điều tra vấn đề này tại một thời điểm, nhưng nó chắc chắn đáng để có một cái nhìn mới mẻ với thông tin này.
kross

Tôi cập nhật câu hỏi với sự liên kết của tôi. partedcho biết nó được căn chỉnh, dựa trên kích thước khối 512, nhưng nó không chia hết cho 4096. Vì vậy, tôi chỉ muốn xác nhận: kích thước cung của bạn vẫn ở mức 512 và điều duy nhất bạn đã làm là bắt đầu phân vùng ở vị trí chia hết cho 4096 , chính xác?
kross


1
Ugh, bây giờ phải làm gì với đĩa hiện tại của tôi ... thử và thay đổi kích thước / di chuyển, hoặc dd, hmmm, không chắc chắn. Quả thực đây có vẻ là nguyên nhân gốc rễ.
kross


5

Chú ý: Câu trả lời này đã cũ. Kể từ Linux 4.19 blk_mq là bộ lập lịch mặc định . Rất có thể vấn đề cho SSD PCIe NVMe của bạn chạy chậm xuất hiện ở nơi khác.

Câu trả lời gốc:

Vui lòng thêm

scsi_mod.use_blk_mq=1

với các tham số khởi động kernel của bạn, nếu không tôi nghĩ bạn sẽ thấy lợi ích của hàng đợi lệnh tăng lên và lệnh trên mỗi hàng đợi của NVMe.

Lưu ý: Tôi biết đó là cho vòm nhưng bạn cũng có thể muốn xem Wiki để biết thêm thông tin về điều chỉnh I / O.


2
Cảm ơn bạn đã thêm nó, tôi đã thử nó trên Ubuntu 16.04.1 LTS và thấy không có sự khác biệt. Tôi đã khá hy vọng, nhưng thật không may điều này đã không thay đổi bất cứ điều gì.
kross

2
Tương tự đối với tôi, không có sự khác biệt đáng chú ý trong hiệu suất từ ​​điểm chuẩn hdparm.
lời giới thiệu

Tương tự cho tôi. Tôi đã cập nhật câu trả lời của mình bên dưới cho thấy tốc độ khởi động giảm 1 giây.
WinEunuuchs2Unix

3

Chủ đề này là một năm tuổi (tháng 10 năm 2016). Một trong những câu trả lời được đánh giá cao nhất khuyến nghị trình điều khiển Intel NVMe đã được hai năm tuổi (2015).

Vào tháng 2 năm 2017 mặc dù Samsung đã phát hành Bản cập nhật phần sụn sử dụng trình cài đặt ISO khởi động dựa trên Linux. Trên cùng một liên kết có các trình điều khiển bạn có thể cài đặt cho Windows 7/8/10. Tôi sẽ sớm cài đặt cả hai trên Samsung 960 Pro mới và máy tính xách tay i7-6700 hoàn toàn mới của Dell. Cùng với flash BIOS và cập nhật trình điều khiển dựa trên Dell khác.

Tôi nghĩ điều quan trọng là phải xem lại các chủ đề cũ này và cung cấp cho người dùng mới các liên kết hiện tại (kể từ ngày 11 tháng 10 năm 2017) để họ có tất cả các tùy chọn mở.

Có rất nhiều tìm kiếm google được trả về cho hiệu năng chậm của Samsung 960 Pro trong Linux là một nửa tốc độ của Windows, vì vậy tôi khuyến khích mọi người tìm kiếm càng nhiều tùy chọn càng tốt.


Sau khi thực hiện scsi_mod.use_blk_mq=1tham số kernel:

$ systemd-analyze
Startup finished in 7.052s (firmware) + 6.644s (loader) + 2.427s (kernel) + 8.440s (userspace) = 24.565s

Xóa tham số kernel và khởi động lại:

$ systemd-analyze
Startup finished in 7.060s (firmware) + 6.045s (loader) + 2.712s (kernel) + 8.168s (userspace) = 23.986s

Vì vậy, nó sẽ xuất hiện bây giờ scsi_mod.use_blk_mq=1làm cho hệ thống chậm hơn không nhanh hơn. Tại một thời điểm nó có thể có lợi mặc dù.


Chỉ là một FYI: tại một thời điểm cho phép đa ngôn ngữ SCSI thực sự đã làm chậm một số thiết bị nhất định nhưng các vấn đề khác nhau đã được khắc phục. Từ kernel v4.19 trở đi, Linux cho phép scsi-mq theo mặc định . Lưu ý: tôi không rõ liệu tùy chọn này có ảnh hưởng đến các ổ NVMe hay không (trái ngược với các ổ đĩa SCSI / SATA).
Anon

1

Dưới đây là một số thông tin thú vị: trên Windows, ổ đĩa không hoạt động theo đánh giá điểm chuẩn cho đến khi xóa bộ đệm ẩn. Thông thường điều này không được thực hiện trực tiếp; thay vào đó, trình điều khiển của nhà cung cấp (trong trường hợp này, trình điều khiển Samsung NVMe) được cài đặt.

Nếu bạn điểm chuẩn với trình điều khiển của nhà cung cấp, và sau đó vô hiệu hóa xóa bộ đệm trong Windows, bạn sẽ nhận được các số tương tự. Đây không phải là trường hợp nếu nhà cung cấp không bỏ qua việc xóa bộ đệm.

Được dịch sang Linux-Land, điều đó có nghĩa là trên Windows, để có được số điểm chuẩn lớn mà bạn thấy trong tất cả các đánh giá, bạn cần phải vô hiệu hóa fsync, với tất cả điều đó có nghĩa là độ tin cậy (không có fsync, hoặc cụ thể, không có rào cản ghi, có nghĩa là sức mạnh đó mất không đúng thời điểm có thể phá vỡ toàn bộ FS, tùy thuộc vào việc thực hiện - viết lại được sắp xếp lại tạo ra các tình huống "không thể").

SSD "trung tâm dữ liệu" của Samsung đi kèm với tụ điện để đảm bảo dữ liệu được lưu trong bộ nhớ cache được xóa chính xác. Đây không phải là trường hợp với ổ đĩa tiêu dùng của họ.

Tôi vừa mới thực hiện điều này từ các nguyên tắc đầu tiên, đã thêm một NVMe 1TB vào bản dựng mới của tôi ngày hôm qua. Tôi không đặc biệt vui và tôi đã bắt đầu liên hệ với bộ phận hỗ trợ của Samsung để xem họ nói gì - nhưng tôi nghi ngờ tôi sẽ nghe lại.


Họ có nói gì không?
Csaba Toth

0

Tôi chưa thể bình luận, vì vậy tôi phải trả lời. :-(

Tôi không có ổ đĩa tương đương, nhưng tôi đoán rằng các giá trị từ hdparm là ổn. Nếu vậy tôi sẽ giả sử rằng bạn chỉ sử dụng sysbench theo cách tối ưu. Hãy thử trải nghiệm với tham số --num-thread để tạo thêm tải trên ổ đĩa. Ít nhất trên máy tính của tôi, sự khác biệt giữa 1 luồng (mặc định) và 16 luồng là khoảng 1: 4 trên ổ SSD SATA tiêu chuẩn. Sự hiểu biết của tôi là các ổ NVMe bắt đầu tỏa sáng các tác vụ song song hơn đang đặt tải lên chúng.


Tôi đang sử dụng nó theo cách giống hệt với mbpro, và nó chỉ bằng 1/2 hiệu suất, đó là điều không có ý nghĩa.
kross

Tôi vừa thêm một fiobài kiểm tra với 1 và 7 chủ đề, và tham chiếu đến một loạt các điểm chuẩn sử dụng nó làm cơ sở.
kross

0

Hầu hết các ổ SSD rơi thẳng trên mặt nếu cờ đồng bộ = 1 (D_SYNC). Thật không may, đây là một vấn đề nổi tiếng cho các tạp chí Ceph. Xem trang này để biết thêm thông tin và danh sách các ổ đĩa hoạt động tốt khi bật đồng bộ hóa:

http://www.sebastien-han.fr/blog/2014/10/10/ceph-how-to-test-if-your-ssd-is-suitable-as-a-journal-device/


Cảm ơn nhưng tôi đã tham khảo bài viết ở trên dưới tiêu đề fio và bạn có thể thấy từ các điểm chuẩn ở đó rằng SSD của tôi hoạt động kém Intel 750 NVMe 400GB 261 MB/s (1 job) 884 MB/s (5 jobs)bởi một lề lớn với đồng bộ hóa, và thậm chí còn kém hơn so với thế hệ trước Samsung XP941 256GB 2.5 MB/s (1 job) 5 MB/s (7 jobs). Vì vậy, trong khi nó có thể được biết đến, nó vẫn còn ít hơn nó nên được.
kross

0

Khe M.2 của tôi được giới hạn ở tốc độ 10Mb / giây. Tôi đã sử dụng bộ chuyển đổi PCIe để khắc phục giới hạn này: https://www.amazon.com/Lycom-DT-120-M-2-PCIe-to-PCIe-3-0-x4-Ad CHƯƠNG-Support-M-2 -PCIe-2280-2260-2242 / dp / B00MYCQP38 /

Bo mạch chủ của bạn nói rằng nó có tốc độ 32Mb / giây đầy đủ và có thể đó là sự thật, nhưng tôi nghĩ tôi đã đề cập đến bộ chuyển đổi vì nó hoạt động với tôi (tôi nhận được gấp đôi tốc độ cắm vào khe M.2 trên bo mạch). Tôi nghĩ rằng đó là 25 đô la và nếu bạn đã dành đủ thời gian để nghịch ngợm, điều này có thể đáng để thử.

Tôi đã viết về trải nghiệm của mình trong bài đánh giá trên Amazon của mình: https://www.amazon.com/gp/customer-reviews/R21BXILGXW4D9C/ref=cm_cr_arp_d_rvw_ttl?ie=UTF8&ASIN=B01639694M

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.