Thêm dung lượng 60TB vào máy chủ SLES 10


10

Tôi phải thêm một số kho lưu trữ \ staging lưu trữ vào Máy chủ SLES 10. Yêu cầu là phải trình bày khối lượng khá lớn (tổng cộng 9-20TB, khoảng 60TB hoặc hơn) sẽ được sử dụng để lưu trữ dữ liệu lưu trữ (theo nghĩa đen, đây là cho một thư viện) bao gồm các tệp hình ảnh lớn (phần lớn 150Meg Tiff) và tarball lớn. Dữ liệu sẽ bị sai lệch nhiều khi đọc IO, chắc chắn> 95% và có thể hơn 99%.

Bộ lưu trữ đã được mua - một mảng cúc Dell MD3000 SAS được nối với 2 MD1000 được trang bị đầy đủ với các ổ đĩa SATA 2TB 7200 RPM, tổng cộng 45 ổ đĩa. Ngăn xếp của các mảng được kết nối bằng hai bộ điều hợp SAS bên ngoài có cổng kép, tức là có 4 đường dẫn đến ngăn xếp.

Ý định của tôi là định cấu hình chúng thành một bộ gồm 4 tập nằm trên 4 nhóm RAID với một phụ tùng nóng cho mỗi mảng. Tất cả các nhóm sẽ là RAID 6 với 7 hoặc 14 ổ đĩa và mỗi nhóm RAID sẽ được trình bày dưới dạng một LUN duy nhất sử dụng tất cả dung lượng trong nhóm đó. Về phía SLES, chúng cần được định dạng dưới dạng khối XFS.

Tôi có kinh nghiệm hạn chế với SLES (và Linux nói chung) và tôi đang tìm kiếm một số đề xuất về vấn đề này, cụ thể:

  1. Có bất kỳ điều cụ thể nào cần cẩn thận khi định cấu hình khối lượng XFS có kích thước này trong SLES 10, tức là các cài đặt mặc định sẽ ổn với cấu hình IO không?
  2. Cách tốt nhất để khởi tạo \ phân vùng \ định dạng này là gì? Tôi đã sử dụng Parted để đặt nhãn Disk và Trình quản lý phân vùng YAST (chấp nhận tất cả các giá trị mặc định) để tạo và định dạng khối lượng XFS cho thử nghiệm ban đầu của tôi.
  3. Làm cách nào để thiết lập đa đường? Khi tôi trình bày một khối lượng thử nghiệm ban đầu, nó xuất hiện dưới dạng bốn thiết bị riêng biệt (/ dev / sdl, / dev / sdm, / dev / sdn và / dev / sdn). Tôi phải làm gì để làm việc với điều này như một tập duy nhất?
  4. Trong thử nghiệm ban đầu của tôi, tôi thấy tốc độ truyền tải từ khối lượng EMC Clariion SAN hiện tại khoảng 30Meg / giây. Con số này thấp hơn rất nhiều so với tôi mong đợi, thậm chí còn tính đến hình phạt ghi RAID 6 mà tôi dự kiến ​​sẽ thấy một cái gì đó trong sân bóng 70-100Meg / giây.
  5. Làm cách nào để biết mọi thứ có ổn không - tôi nên tìm lỗi \ cảnh báo ở đâu? Ví dụ, trình soạn thảo phân vùng YAST mất một thời gian rất dài để khởi chạy và tôi muốn hiểu lý do tại sao.
  6. Bạn sẽ phân vùng này khác nhau và \ hoặc sử dụng một hệ thống tập tin khác và nếu vậy tại sao?

Máy chủ là Dell 2950 - Tôi chưa kiểm tra thông số kỹ thuật chi tiết nhưng hàng đầu cho thấy việc sử dụng lơ lửng ở các chữ số thấp nhất.

Câu trả lời:


4

Ở công việc trước đây của chúng tôi, chúng tôi đã có một vấn đề tương tự. Chúng tôi đang sản xuất cho các cung thiên văn và mỗi khung là 64 MegaPixels. Rất nhiều hình ảnh lớn. Chúng sẽ được xử lý cho mỗi rạp hát trong một hoạt động đọc rất tích cực trên một cụm máy tính.

Các máy chủ trong trường hợp này đã có một thiết lập lưu trữ tương tự. Nhiều mảng RAID gắn trực tiếp bên ngoài. Mỗi trong số này nằm trong khối RAID6 được hiển thị với máy chủ và được thêm vào VG (Nhóm âm lượng) trong LVM (Trình quản lý khối hợp lý). Mỗi chương trình / sản xuất sau đó sẽ có LV (Khối lượng logic) của riêng họ, được định dạng XFS, mà chúng tôi sẽ phát triển cùng với dự án theo yêu cầu.

Nếu bộ dữ liệu của bạn khá tĩnh hoặc phát triển theo cách có thể dự đoán được như thế này thì phương pháp này sẽ hoạt động tốt cho bạn. Nhưng hãy cẩn thận cách tiếp cận này có một nhược điểm. Cuối cùng, bạn phải quản lý vi mô LV trên bộ lưu trữ của mình. Một số quản trị viên thích nó theo cách này nhưng những người khác sẽ cố gắng tránh nó. Nhưng điều này cho phép bạn phát triển từng hệ thống tệp LV và XFS khi bộ dữ liệu phát triển. Giữ khối lượng XFS của bạn càng nhỏ càng tốt để bạn không bị mắc kẹt với một fsck phải mất nhiều năm để hoàn thành. Và có thể hoạt động như kiểm soát thiệt hại nếu một hệ thống tập tin đi về phía nam.

Tuyên bố miễn trừ trách nhiệm: Nếu tôi thiết lập điều này ngày hôm nay, tôi sẽ sử dụng OpenSolaris và ZFS. Chủ yếu là nó tránh được các vấn đề quản lý vi mô và là một trình quản lý khối / hệ thống tệp ưu việt. Vì vậy, bạn có thể muốn có một cái nhìn vào đó là tốt.


4

Tôi sẽ được bao gồm nhiều hơn để mua thêm đĩa và RAID 10 chúng.

Tôi đã gặp vấn đề khủng khiếp với hàng trăm đĩa FATA (SATA gắn sợi quang) mà chúng tôi đã mua một lúc trước, mỗi đĩa trị giá 1 nghìn bảng và tôi mất 5% mỗi tháng! Về cơ bản, chúng chỉ không được thiết kế cho chu kỳ nhiệm vụ 24x7 và bạn có thể gặp các vấn đề tương tự là lý do tại sao tôi khuyên dùng R10.

RAID6 là một bước đi đúng hướng nhưng nếu bạn có khả năng tôi sẽ để ít nhất một đĩa sang một bên dự phòng - nếu một đĩa chết ở bất cứ đâu trên mảng của bạn, nó sẽ nhảy vào và sọc trong khi nó chờ bạn thay thế đĩa thất bại. Về chủ đề đó, đảm bảo bạn có ít nhất 2 hoặc 3 đĩa dự phòng sẵn sàng để thay thế và cũng đảm bảo rằng bạn có tất cả các thiết lập cảnh báo để cho bạn biết khi có sự cố 24x7.

Về hiệu năng, các đĩa 2 GB đó không gây khó chịu cho đĩa 7.2k và SAS có thể rất nhanh, vì vậy tôi mong đợi 70 MBps cho các lần đọc liên tiếp mà bạn đã đề cập - rõ ràng là randoms và ghi sẽ khá thấp.

Xin lỗi nếu tôi có vẻ tiêu cực, tôi đã vật lộn với bộ lưu trữ trong nhiều năm nay và chỉ có thể ngủ dễ dàng với các hệ thống đĩa doanh nghiệp - Tôi đã kéo quá nhiều ca làm việc 48/72 giờ để sửa thiết bị cấp thấp hơn.


2
Điểm tuyệt vời - Tôi đã không chỉ định trong câu hỏi nhưng tôi đã dành riêng 3 phụ tùng nóng, 1 cho mỗi mảng. Thật không may, tôi không có tùy chọn nhận thêm đĩa vào bất kỳ lúc nào nhưng tôi có thể khiến khách hàng đồng ý giảm dung lượng trên một số ổ đĩa.
Helvick
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.