Buộc đàm phán lại tốc độ liên kết PCI Express? thẻ x2 trở lại chiều rộng x1


15

Trong nỗ lực phá vỡ tính tương thích và các rào cản chi phí đối với việc sử dụng ổ SSD với các máy chủ HP ProLiant Gen8 mới hơn, tôi đang làm việc để xác thực các ổ SSD dựa trên PCIe trên nền tảng. Tôi đã thử nghiệm một sản phẩm thú vị từ Máy tính thế giới khác có tên là Accelsior E2 .

nhập mô tả hình ảnh ở đây

Đây là một thiết kế cơ bản; thẻ PCIe với bộ điều khiển RAID Marvell 6Gbps và hai "lưỡi" SSD được kết nối với thẻ. Chúng có thể được chuyển qua HĐH cho RAID phần mềm ( ví dụ ZFS ) hoặc được sử dụng như một cặp phần cứng RAID0 hoặc RAID1 được nhân đôi. Tiện lợi Nó thực sự chỉ là nén một bộ điều khiển và đĩa thành một yếu tố hình thức thực sự nhỏ.

Vấn đề:

Nhìn vào đầu nối PCIe đó. Đó là giao diện PCie x2 . Kích thước khe / làn PCIe vật lý thường là x1, x4, x8 và x16 , với các kết nối điện thường là x1, x4, x8 và x16. Tốt rồi. Tôi đã sử dụng thẻ x1 trong các máy chủ trước đây.

Tôi đã bắt đầu kiểm tra hiệu năng của thẻ này trên một hệ thống đã khởi động và phát hiện ra rằng tốc độ đọc / ghi trong đó điều chỉnh tới ~ 410 MB / s, bất kể cấu hình máy chủ / khe cắm / BIOS. Các máy chủ đang sử dụng là các hệ thống HP ProLiant G6, G7 và Gen8 (Nehalem, West 4.0.3 và Sandy Bridge) với các khe cắm PCIe x4 và x8. Nhìn vào BIOS của thẻ cho thấy thiết bị đã thương lượng: PCIe 2.0 5.0Gbps x1- Vì vậy, nó chỉ sử dụng một làn PCIe thay vì hai, do đó chỉ có một nửa băng thông được quảng cáo là có sẵn.

Có cách nào để buộc thiết bị PCIe chạy ở tốc độ khác không?

Nghiên cứu của tôi cho thấy rằng PCIe x2 có một chút chiều rộng làn lẻ ... Tiêu chuẩn PCI Express rõ ràng không yêu cầu khả năng tương thích với độ rộng làn x2 , vì vậy tôi đoán là các bộ điều khiển trên máy chủ của tôi đang quay trở lại x1 ... Tôi có bất kỳ truy đòi?


lspci -vvvĐầu ra viết tắt . Lưu ý sự khác biệt giữa LnkStaLnkCapdòng.

05:00.0 SATA controller: Marvell Technology Group Ltd. Device 9230 (rev 10) (prog-if 01 [AHCI 1.0])
        Subsystem: Marvell Technology Group Ltd. Device 9230
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr+ Stepping- SERR+ FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
                DevSta: CorrErr+ UncorrErr- FatalErr- UnsuppReq+ AuxPwr- TransPend-
                LnkCap: Port #0, Speed 5GT/s, Width x2, ASPM L0s L1, Latency L0 <512ns, L1 <64us
                        ClockPM- Surprise- LLActRep- BwNot-
                LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- Retrain- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
        Kernel driver in use: ahci
        Kernel modules: ahci

Tôi giả sử bạn đang đặt thẻ vào khe x4, phải không? Trong mọi trường hợp, tôi không chắc HP sẽ xử lý thẻ x2 như thế nào. Trong một khe x4, nó sẽ có thể sử dụng cả hai làn đường, nhưng như bạn đã đề cập, không có gì đảm bảo rằng nó phải sử dụng nó. Tất cả những gì đã nói, tôi không chắc có bao nhiêu vết sưng hiệu suất mà bạn có thể thấy vì 6gbs SATA vẫn thường được xem là bị giới hạn ở mức tối đa 4,8 gb / giây với chi phí mã hóa với một làn PCIe duy nhất có thông lượng tối đa 5gbs.
Rex

@Rex "x4 và x8 khe PCIe" đã được thử. Thẻ này có hai ổ SSD SATA 6Gbps riêng biệt trên bo mạch, do đó, có một vết sưng tốc độ có sẵn một lần / nếu PCIe x2 được đàm phán.
ewwhite

Ah .. bỏ lỡ x4 / x8 khe trong câu hỏi, nhưng bạn nói "thẻ PCIe với một bộ điều khiển RAID Marvell SATA 6Gbps" tương ứng với hệ điều khiển duy nhất :) Nếu nó có hai bộ điều khiển rời rạc, được mỗi SSD kết nối với nó là bộ điều khiển riêng? Vậy thì làm thế nào nó có thể làm RAID phần cứng trên hai bộ điều khiển khác nhau?
Rex

@Rex Có hai ổ SSD được kết nối với một bộ điều khiển. Bộ điều khiển RAID 6Gbps có băng thông 6Gbps trên mỗi làn đường SAS / SATA.
ewwhite

Thông số kỹ thuật PCIe không yêu cầu các khe cắm hỗ trợ mọi thứ trừ 1x. Khi một thẻ được chèn, máy chủ sẽ truy vấn nó để hỗ trợ làn đường và bất cứ thứ gì có sức mạnh cao nhất trong hai loại mà cả hai hỗ trợ đều được sử dụng (vì vậy 1x, 2x, 4x, 8x, 16x hoặc 32x). Ngoài ra, mỗi làn trên một điểm cuối (máy chủ hoặc thẻ) có thể hỗ trợ đàm phán ban đầu, nhưng thông thường chỉ có làn đầu tiên (khi các làn bổ sung hỗ trợ đàm phán, vị trí sẽ có khả năng phân nhánh, cắm nhiều hơn một thẻ thông qua việc sử dụng bộ chia ). Như đã lưu ý dưới đây, các máy chủ được đề cập không hỗ trợ chế độ 2 làn.
Chris S

Câu trả lời:


6

Đó là câu trả lời chính thức từ OWS, bây giờ là một câu trả lời khác nếu có thể buộc bộ điều khiển hp tăng lên đến chiều rộng x2, điều đó sẽ cần thêm một số nghiên cứu. -)

nhập mô tả hình ảnh ở đây


Nhưng thẻ đang ở trong G6 ProLiant tại thời điểm này -Manufacturer: HP Product Name: ProLiant DL180 G6
ewwhite

Đúng, có khả năng tất cả các bộ điều khiển pci Proliant DL sẽ có vấn đề với thẻ.
Danila Ladner

Nhìn vào bạn, đi đến nguồn !!
ewwhite

Ngoài ra trên Gen7, Gen8 cho vị trí đầu tiên trên pcie riser sẽ luôn nhận được 1x: 1 PCIe 2.0 X1 X4 Nửa chiều dài / Chiều cao đầy đủ từ đây: h18000.www1.hp.com/products/quickspecs/14339_na/14339_na.pdf Tôi cho rằng bạn đã thử khe khác nhau.
Danila Ladner

2

Tôi đã thử điều này một lần nữa trên nền tảng HP hơi khác một chút, 2U HP ProLiant DL380p Gen8 so với 1U DL360p Gen8. Tôi đã nhận được kết quả thích hợp bằng cách sử dụng kết hợp phần cứng này.

Phần sụn máy chủ Gen8 hiện tại cho phép các liên kết PCIe đàm phán ở tốc độ phù hợp, vì vậy các thiết bị này tương thích với các máy chủ Gen8 của ProLiant DL380p.

Speed 5GT/s, Width x2, ASPM L0s L1, Latency L0 <512ns, L1 <64us
LnkSta: Speed 5GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-

0

Tôi có trong tay một máy chủ IBM có thẻ Broadcom 4 × 1GbE trong đó có một cuộc đàm phán giảm từ 2.0x4 xuống 2.0x2:

0b:00.0 Ethernet controller: Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet (rev 20) 
Subsystem: IBM Device 03a9 
Capabilities: [ac] Express (v2) Endpoint, MSI 00
LnkCap: Port #0, Speed 5GT/s, Width x4, ASPM L0s L1, Latency L0 <2us, L1 <2us 
LnkSta: Speed 5GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-

Nó có đầu nối x4 mà tôi đoán chỉ được sử dụng đầy đủ khi đặt vào khe PCIe v1, vì vậy có vẻ như nó đang đàm phán xuống x2 khi được sử dụng trong khe PCIe v2 (vì hai chiều 5GT / s là đủ cho 4 × 1GbE ).

Điều tương tự có thể xảy ra với thẻ của bạn?

(Nếu không, câu trả lời của tôi là: sử dụng IBM thay vì HP: P)


1
Không có IBM !!! Không bao giờ;)
ewwhite
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.