Tốc độ tốt như thế nào đối với iSCSI và NFS trên 1GB ethernet là gì?


9

Tôi có một hộp OpenSolaris chia sẻ hai hệ thống tập tin ZFS. Một là kết nối NFS với hộp CentOS chạy máy chủ VMware (hình ảnh đĩa được lưu trữ trong ZFS). Cái còn lại là kết nối iSCSI với máy chủ Windows 2008 với định dạng NTFS trên đầu ZFS. Cả hai kết nối đều trực tiếp qua gig-E (không có công tắc).

Tôi đang chạy munin để theo dõi các hộp, nhưng tôi không chắc mình nên mong đợi loại số nào. Ai đó có thể cho tôi một số số cơ sở để so sánh hoặc đưa ra bất kỳ đề xuất nào về nơi bắt đầu điều chỉnh không?

Dưới đây là số liệu thống kê NFS tôi đang xem, tôi sẽ đăng iSCSI sau khi tôi sửa munin trên hộp solaris: P

giao diện

khách hàng nfs


Những đơn vị bạn đang tìm kiếm? KBPS? IO / giây?
WerkkreW

Tôi thậm chí không biết bắt đầu tìm kiếm ở đâu. Tôi đã cập nhật bài viết với số liệu thống kê tôi có từ munin. Hãy cho tôi biết nếu có nơi tốt hơn để tìm.
Sysadminicus

Câu trả lời:


12

Chúng tôi đã đẩy một văn bản Sun X4100 qua GigE và iSCSI ngoại quan lên Sun X4500 tới 280MB / s.

Có rất nhiều thứ có thể được thực hiện để điều chỉnh ngăn xếp TCP trên Solaris để giúp mọi thứ, đây là cấu hình điều chỉnh chứng khoán của tôi. (lấy từ một số bộ sưu tập của Sun whitepapers):

$ cat /etc/rc3.d/S99ndd
#!/bin/bash

NDD=/usr/sbin/ndd

$NDD -set /dev/tcp tcp_xmit_hiwat 1048576
$NDD -set /dev/tcp tcp_recv_hiwat 8388608
$NDD -set /dev/tcp tcp_max_buf 8388608
$NDD -set /dev/udp udp_xmit_hiwat 1048576
$NDD -set /dev/udp udp_recv_hiwat 8388608
$NDD -set /dev/udp udp_max_buf 8388608
$NDD -set /dev/tcp tcp_conn_req_max_q 65536
$NDD -set /dev/tcp tcp_conn_req_max_q0 65536
$NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500

Ngoài ra, đáng để xem xét trên máy OpenSolaris của bạn đang thay đổi khoảng thời gian fsflush, "phép thuật" điều chỉnh ngắt và vô hiệu hóa các vòng mềm. Nối các mục sau vào / etc / system (yêu cầu khởi động lại):

* "fsflush" tuning
set tune_t_fsflushr = 5
set autoup = 300
* Disable the Automatic Interrupt Adjustment
set dld:dld_opt = 2
* Disable "soft rings"
set ip:ip_squeue_fanout = 0
set ip:ip_soft_rings_cnt = 0

Đáng nói hơn, tôi làm điều này trên Solaris 10 - không phải OpenSolaris - nhưng tôi nghĩ rằng các bộ chỉnh âm sẽ hoạt động tốt cho bạn.

Tôi là một fan hâm mộ lớn của Filebench khi chơi xung quanh với các tùy chọn điều chỉnh và thực hiện các bài kiểm tra thông lượng.

Bản phát hành OpenSolaris 2009.06 (gần đây đã được đổi tên) có vẻ rất thú vị trong thế giới của iSCSI và ZFS.

Hy vọng điều này sẽ giúp một số!


3

Tôi nhận được khoảng 90 MB / giây cho mảng EMC AX150i của tôi qua iSCSI trên ethernet 1GB.


1

Đối với chỉ một dd hoặc bonnie ++ (tốc độ thô, viết tuyến tính), bạn sẽ tiến gần đến tốc độ dây.

Nhưng nút cổ chai của bạn sẽ là mảng đĩa, khi bạn bắt đầu tải IO ngẫu nhiên của nhiều máy ảo, nhiều hơn so với vận chuyển.

Ngoài ra, nếu bạn không có bộ đệm ghi được hỗ trợ bằng pin với dung lượng RAM đáng kể, hiệu suất của bạn sẽ giảm ngay khi bạn bắt đầu ghi nhiều với bất kỳ IO nào khác đang diễn ra.


0

Tôi đã có thể đẩy dữ liệu qua iSCSI lên khoảng 200 Mbit / giây trên các liên kết 1GB. Nhưng tôi đã có một RAID 6 đĩa được lưu trữ bởi EMC CX4-240 mà không có nhiều người khác sử dụng bộ đệm vào thời điểm đó.

Nút thắt lớn nhất có lẽ sẽ là số lượng bộ đệm của bộ điều khiển và tốc độ của các đĩa (khi bộ đệm đầy).


1
Chúng tôi đã thất bại trong giai đoạn lập kế hoạch bằng cách đặt tất cả 12 đĩa trên cùng một bộ điều khiển. Tôi tưởng tượng rằng việc tách chúng ra khỏi bộ điều khiển khác sẽ là một chiến thắng tốc độ dễ dàng cho chúng tôi.
Sysadminicus

Nó có thể, tất cả phụ thuộc vào nơi tắc nghẽn. RAID 6 của chúng tôi là một bộ điều khiển duy nhất vì tất cả nằm trong một giá. Nhưng đó là một phần cứng khá cao cấp. Nút thắt ở đâu? Bạn có thể chỉ cần đặt thêm bộ đệm vào bộ điều khiển và / hoặc chỉ định phần trăm bộ đệm cao hơn làm bộ đệm ghi.
mrdenny

Tôi đã có một thiết lập tương tự (mặc dù với AX4-5). Tôi không sử dụng iSCSI, nhưng tôi đã chuyển khoản cực kỳ nhanh bằng các giao thức không được mã hóa giữa hai máy trên SAN. Tôi ước tôi biết về một tài liệu tối ưu hóa SAN tốt.
Matt Simmons

0

Tôi nhận được khoảng 80 MB / S đến máy chủ windows của mình qua ISCSI trên ethernet 1G. Mục tiêu: KernSafe IStorage server http://www.kernsafe.com/Product.aspx?id=5 Initiator: Microsoft Initiator www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= vi

Ổ cứng: ATA 7200


0

Đối với những người trong chúng ta gần với kết thúc bán chuyên nghiệp (chứ không phải pro), tôi nhận được 150 MB đọc liên tục và ổn định 120MB từ máy chủ W2012 dual 1gb nic được hợp tác thông qua chuyển đổi được quản lý bởi draytek sang blackarmorsnas thông qua đồng RJ45, chuyển một tệp 20GB. Không có hoạt động mô phỏng khác trong quá trình thử nghiệm. Để đạt được điều này, tôi đang sử dụng các luồng jumbo 9k, rx & tx, tức là tất cả các tối ưu hóa trình điều khiển thông thường, nhưng không có điều chỉnh nào ngoài việc bật mọi thứ và tăng khung jumbo lên tối đa.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.