Cài đặt HP ProCurve 2810-24G cho iSCSI?


8

Tôi có một cặp ProCurve 2810-24G mà tôi sẽ sử dụng với Dell Equallogic SAN và Vmware ESXi. Vì ESXi thực hiện MPIO, tôi không chắc chắn về cấu hình cho các liên kết giữa các công tắc. Là một thân cây đúng cách để đi giữa các công tắc?

Tôi biết rằng các cổng cho máy chủ SAN và ESXi không được gắn thẻ, vì vậy điều đó có nghĩa là tôi muốn gắn thẻ Vlan trên các cổng trung kế?

Đây là cấu hình nhiều hay ít:

trunk 1-4 Trk1 Trunk 
snmp-server community "public" Unrestricted 
vlan 1 
    name "DEFAULT_VLAN" 
    untagged 24,Trk1 
    ip address 10.180.3.1 255.255.255.0 
    no untagged 5-23 
exit 
vlan 801 
    name "Storage" 
    untagged 5-23 
    tagged Trk1 
    jumbo 
exit 
no fault-finder broadcast-storm 
stack commander "sanstack" 
spanning-tree
spanning-tree Trk1 priority 4
spanning-tree force-version RSTP-operation

Equallogic PS4000 SAN có hai bộ điều khiển, với hai giao diện mạng mỗi cái. Dell khuyến nghị mỗi bộ điều khiển nên được kết nối với từng thiết bị chuyển mạch. Từ tài liệu vmware, có vẻ như tạo một vmkernel cho mỗi pNIC. Với MPIO, điều này có thể cho phép thông lượng hơn 1 Gbps.

nhập mô tả hình ảnh ở đây

Câu trả lời:


12

Đã có một số tranh luận trong các bình luận về câu trả lời của Chopper3 không được cung cấp đầy đủ vì một số khía cạnh được hiểu kém về các yêu cầu kết nối và hành vi đa năng của Equallogic.

Đầu tiên là phía VMware: Đối với những người mới bắt đầu ở phía ESXi, khuyến nghị hiện tại, khi sử dụng Trình khởi tạo phần mềm iSCSI, từ VMware (đối với ESX \ ESXi 4.1) và Dell là bạn nên có một Nic vật lý duy nhất được ánh xạ tới mỗi Cổng VMkernel. được sử dụng cho iSCSI. Quá trình ràng buộc mà bây giờ được khuyến nghị thực thi điều này. Nó yêu cầu bạn chỉ có một nic vật lý hoạt động và không có nics dự phòng cho mỗi cổng VMkernel. Không cho phép liên kết. Bây giờ bạn có thể gian lận điều này và quay lại sau đó và thêm nic failover nhưng ý định là MPIO sẽ xử lý chuyển đổi dự phòng để điều này không phục vụ mục đích hữu ích (ít nhất là khi mọi thứ hoạt động như dự định của VMware).

Chính sách đa luồng mặc định sẽ cho phép các kết nối hoạt động, hoạt động đến một mảng Equallogic bằng cách sử dụng vòng tròn.

Thứ hai về phía Equallogic: Các mảng Equallogic có các bộ điều khiển kép hoạt động ở chế độ chờ \ hoạt động. Đối với PS4000, chúng có hai Gigabit Nics trên mỗi bộ điều khiển. Đối với bộ điều khiển hoạt động, cả hai nics này đều hoạt động và có thể nhận IO từ cùng một nguồn. Cấu hình mạng khuyến nghị rằng các nics của mảng nên được kết nối với các công tắc riêng biệt. Từ phía máy chủ, bạn có nhiều liên kết cũng sẽ được phân phối cho các công tắc riêng biệt. Bây giờ đối với phần lẻ - mảng Equallogic hy vọng rằng tất cả các cổng khởi tạo có thể thấy tất cả các cổng hoạt động trên mảng. Đây là một trong những lý do bạn cần một thân cây giữa hai công tắc. Điều đó có nghĩa là với một máy chủ có hai cổng VMkernel iSCSI và PS4000 duy nhất, có 4 đường dẫn hoạt động giữa người khởi tạo và mục tiêu - hai là "trực tiếp"

Đối với các kết nối của bộ điều khiển dự phòng, các quy tắc tương tự được áp dụng nhưng các nics này sẽ chỉ hoạt động sau khi chuyển đổi bộ điều khiển và các nguyên tắc tương tự được áp dụng. Sau khi chuyển đổi dự phòng trong môi trường này, vẫn sẽ có bốn đường dẫn hoạt động.

Thứ ba để đa luồng nâng cao hơn: Hiện tại Equallogic có Mô-đun mở rộng đa luồng cắm vào Kiến trúc lưu trữ có thể cắm của VMware cung cấp cân bằng tải thông minh (sử dụng độ sâu hàng đợi tối thiểu, Robin tròn hoặc MRU) trên các cổng VMkernel. Điều này sẽ không hoạt động nếu tất cả các nics đường lên vmkernel không thể kết nối với tất cả các cổng Equallogic đang hoạt động. Điều này cũng đảm bảo rằng số lượng đường dẫn thực sự được sử dụng vẫn hợp lý - trong môi trường Equallogic lớn, số lượng đường dẫn hợp lệ giữa máy chủ và Nhóm Equallogic có thể rất cao vì tất cả các nics đích đều hoạt động và tất cả các nics nguồn đều có thể nhìn thấy tất cả các nics đích.

Thứ tư cho môi trường Equallogic lớn hơn: Khi bạn mở rộng môi trường Equallogic, bạn thêm các mảng bổ sung vào một nhóm chia sẻ. Tất cả các cổng hoạt động trên tất cả các mảng thành viên trong một nhóm phải có thể thấy tất cả các cổng hoạt động khác trên tất cả các mảng khác trong cùng một nhóm. Đây là một lý do nữa tại sao bạn cần các ống chất béo cung cấp các kết nối chuyển đổi giữa các công tắc trong vải iSCSI Equallogic của bạn. Tỷ lệ này cũng làm tăng đáng kể số lượng đường dẫn hoạt động hợp lệ giữa người khởi xướng và mục tiêu. Với Nhóm Equallogic bao gồm 3 mảng PS6000 (bốn nics cho mỗi bộ điều khiển so với 2 cho PS4000) và máy chủ ESX có hai cổng vmkernel, sẽ có 24 đường dẫn hoạt động khả dĩ cho ngăn xếp MPIO để lựa chọn.

Liên kết thứ năm \ liên kết liên kết và liên kết chuyển mạch trong môi trường tương đương: Tất cả các kết nối mảng và bộ khởi tạo <-> mảng là các điểm duy nhất để kết nối Gigabit (hoặc 10Gig nếu bạn có mảng 10Gig). Không cần và cũng không có lợi ích gì khi liên kết ở phía máy chủ ESX và bạn không thể liên kết các cổng trên mảng Equallogic. Khu vực duy nhất nơi tập hợp liên kết \ bonding \ bất cứ điều gì bạn muốn gọi nó có liên quan trong một loại vải ethernet chuyển đổi Equallogic nằm trên các liên kết đan xen. Các liên kết đó cần có khả năng mang các luồng đồng thời có thể bằng tổng số cổng Equallogic hoạt động trong môi trường của bạn - bạn có thể cần rất nhiều băng thông tổng hợp ở đó ngay cả khi mỗi điểm liên kết giữa các cổng mảng và cổng bộ điều khiển bị giới hạn ở mức 1gbps.

Cuối cùng: Trong lưu lượng môi trường Equallogic từ một máy chủ (bộ khởi tạo) đến một mảng có thể và sẽ đi qua liên kết đan xen. Việc một đường dẫn cụ thể có phụ thuộc vào địa chỉ IP nguồn và đích cho đường dẫn cụ thể đó hay không, nhưng mỗi cổng nguồn có thể kết nối với từng cổng đích và ít nhất một trong những đường dẫn đó sẽ yêu cầu đi qua ISL. Trong các môi trường nhỏ hơn (như thế này), tất cả các đường dẫn đó sẽ được sử dụng và hoạt động. Trong các môi trường lớn hơn, chỉ có một tập hợp con của các đường dẫn có thể được sử dụng nhưng phân phối tương tự sẽ xảy ra. Băng thông iSCSI tổng hợp có sẵn cho một máy chủ (nếu được cấu hình đúng) là tổng của tất cả băng thông cổng iSCSI vmkernel của nó, ngay cả khi bạn đang kết nối với một mảng và một ổ đĩa đơn. Làm thế nào hiệu quả có thể là một vấn đề khác và câu trả lời này đã quá dài.


1
Bạn cần làm theo lời khuyên này! Tôi làm việc cho đại lý bán lẻ EQL lớn nhất ở miền Trung Tây, tôi đưa vào các hệ thống này hàng ngày. Gắn thẻ / trung kế là cách để đi và để plugin MEM tạo ra các vswitch cho bạn. ISL của bạn phải lớn đến mức bạn có thể đủ khả năng để kết nối khôn ngoan. Chúng tôi thường sử dụng các công tắc có thể xếp chồng lên nhau. Juniper EX4200 là TUYỆT VỜI cho iSCSI.
SpacemanSpiff

Wow, câu trả lời tuyệt vời. Không thấy tin nhắn này cho đến bây giờ, nhưng tôi đã xoay sở để có được tất cả và hoạt động như mong đợi, và kết quả iometer cho thấy nó hoạt động tốt như nó có được. Vẫn phải kiểm tra tất cả sự dư thừa. Cảm ơn rất nhiều cho câu trả lời cực kỳ nhiều thông tin của bạn!
3molo

6
Since ESXi does MPIO, I am a little uncertain on the configuration for links between the switches. Is a trunk the right way to go between the switches?

ESX / i thực hiện quản lý đường dẫn của riêng mình - nó sẽ không hoạt động / hoạt động trên các liên kết của nó trừ khi hai hoặc nhiều liên kết của nó sẽ chuyển sang cùng một công tắc hoặc các công tắc ở chế độ chia sẻ CAM như VSS của Cisco - bất cứ điều gì khác sẽ là một cấu hình hoạt động / thụ động.

Bằng tất cả các phương tiện giữa các thiết bị chuyển mạch nếu bạn muốn nhưng có lẽ cả hai đều có đường dẫn đến một số bộ chuyển mạch lõi hoặc bộ định tuyến? nếu vậy thì tôi không hoàn toàn chắc chắn tại sao bạn chuyển giữa hai công tắc theo cách này vì các hộp ESX / i sẽ chỉ chuyển sang công tắc thứ hai nếu công tắc thứ nhất bị hỏng (dù sao cũng được cấu hình đúng).

I know that the ports for the SAN and the ESXi hosts should be untagged, so does that mean that I want tagged VLAN on the trunk ports?

Tôi không biết giả định này đến từ đâu, ESX / i chỉ thoải mái khi làm việc trong một thiết lập được gắn thẻ hoặc không được gắn thẻ, cho dù là lưu lượng khách hay iSCSI. Điều đó nói rằng tôi đã gặp vấn đề với việc trộn thẻ và không được gắn thẻ khi sử dụng vlans mặc định vì vậy tôi luôn gắn thẻ mọi thứ ngay bây giờ và không có vlan mặc định, đó là một thiết lập rất linh hoạt và không có hiệu suất rõ rệt trong trải nghiệm của tôi.


Tôi khá chắc chắn rằng tài liệu ESXi cho bộ lưu trữ SAN nói rằng người ta không nên liên kết các vấn đề, mà thay vào đó dựa vào MPIO để tăng hiệu suất và lợi ích của sự dự phòng (bất kể các liên kết có đi đến cùng một công tắc hay không). Tất nhiên sẽ không có đường dẫn đến các công tắc lõi, đây là một cặp công tắc chỉ để lưu trữ. Tôi cũng tuyên bố rằng tôi có ý định sử dụng các vlans không có thẻ để lưu trữ và SAN, vì vậy điều đó vẫn làm cho câu hỏi của tôi có giá trị; Tôi nên hay không nên sử dụng TAGGED trong các liên kết trung kế?
3molo

1
Lý do cho việc sử dụng các cổng được gắn thẻ là nếu bạn cần mang nhiều hơn một Vlan. Gắn thẻ các Vlan cung cấp cho bạn khả năng phân biệt giữa chúng. Bạn cũng không cần sử dụng LACP để tạo gói tổng hợp liên kết (trung kế cho HP, Etherchannel cho Cisco). Bạn có thể đặt nhóm tổng hợp tĩnh và hưởng lợi từ việc cân bằng bên chuyển đổi và thất bại. Điều đó nói rằng, việc để bên chuyển đổi một mình và để ESX xử lý việc ra quyết định giao thông là điều phổ biến.
mcmeel

mcmeel, xin vui lòng xem xét viết một câu trả lời thực sự. Nó dễ dàng hơn để bình luận. Không chắc chắn cấu hình chuyển đổi sẽ như thế nào, nếu tôi để ESXi ra quyết định?
3molo

-1 chopper, tôi cảm thấy bạn không biết đủ về chủ đề hoặc bạn không hoàn toàn đọc câu hỏi của tôi.
3molo

1
LAG hoạt động như mong đợi. Tôi có hai liên kết 1 Gbit và EQ được kết nối với một công tắc mỗi liên kết. Tôi nhận được đọc và ghi tuần tự lên tới 235 MB / s. Hoặc là chúng tôi hoàn toàn không hiểu nhau, hoặc tôi đã đúng trong các tuyên bố của mình về việc thiết lập. Btw, vòng tròn của nó nhưng nó hoạt động / hoạt động.
3molo

1

Đó là bộ điều khiển mảng SAN xác định cách bạn nên kết nối này. Có phải nó cung cấp cùng một LUN trên cả hai cổng trên cùng một bộ điều khiển? Sau đó port0 chuyển sang switchA, port1 sang switchB và tương tự với bộ điều khiển tiếp theo.

Tại sao bạn muốn sử dụng LACP / etherchannel chống lại iSCSI SAN với các cổng đường lên 1gbit? Nó không giúp bạn trong bất kỳ cách nào. Tạo 2 vswitch với một pNic duy nhất trong mỗi vSwitch và kết nối pNic đầu tiên với switchA, pNic thứ hai với switchB. Điều này sẽ cung cấp cho bạn đầy đủ dự phòng chống lại lỗi bộ điều khiển / chuyển đổi / nic.


Etherchannel / LACP chỉ là công tắc liên, nhưng điều đó không giúp tôi chút nào? Tôi tưởng tượng rằng các kết nối có thể đi qua giữa các công tắc vì MPIO, trong trường hợp nói một cổng trên công tắc nơi một trong các bộ điều khiển được kết nối.
3molo

Tại sao các kết nối đi qua giữa các thiết bị chuyển mạch? Không có nghĩa lý gì.
pauseka

1
Mỗi bộ khởi tạo liên lạc với IP của nhóm, nó chuyển hướng đến IP của một trong các NIC trong nhóm. Không có gì ngăn cản một bộ khởi tạo trên Switch A kết nối với mảng trên đó là NIC được kết nối với Switch B. Dựa trên số lượng kết nối, liên kết LACP 4GB giữa các công tắc là đủ để tránh mọi rắc rối. Cá nhân tôi thích kết nối tất cả các cổng trên bộ điều khiển với một công tắc. Khi bạn tách chúng, bạn giảm một nửa băng thông của mình tại mảng trong tình huống lỗi.
SpacemanSpiff

Câu trả lời tuyệt vời SpacemanSpiff, tôi đã đi với 2 liên kết LACP.
3molo
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.