Có thể thay đổi kích thước cung của phân vùng cho nhóm zfs raidz trong linux không?


9

Tôi đã di chuyển một nhóm zfs raidz trên linux sang các đĩa mới thông qua các thiết bị ảo là các tệp thưa thớt. Tôi đã sử dụng các phân vùng trên các đĩa vì các đĩa có kích thước khác nhau 1,9T mỗi đĩa. Đĩa cuối cùng để thêm là một đĩa 4Tb và tôi đã phân vùng nó như các đĩa khác với phân vùng 1.9T để thêm vào nhóm. Đó là sử dụng bảng phân vùng GPT. Khi tôi cố gắng thay thế tệp cuối cùng bằng phân vùng 1.9T trên đĩa 4T, tôi nhận được như sau

zpool replace -f zfs_raid /zfs_jbod/zfs_raid/zfs.2 /dev/sdd1 
cannot replace /zfs_jbod/zfs_raid/zfs.2 with /dev/sdd1: devices have different sector alignment

Làm cách nào tôi có thể thay đổi kích thước khu vực phân vùng thành 512 như những người khác hoặc không thể thay đổi các thiết bị nhóm khác thành 4024? Rõ ràng các kích thước khu vực logic là tất cả 512

cat /sys/block/sdd/queue/hw_sector_size
Disk /dev/sdd: 4000.8 GB, 4000787030016 bytes, 7814037168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

Vì tôi đã phân vùng lại đĩa chứa thiết bị dựa trên tệp thứ 4 ban đầu mà tôi đang cố thay thế nhưng nó không hoạt động, tôi đã tạo lại tệp thiết bị để nó hiện đang phục hồi.

đầu ra trạng thái zpool:

NAME                            STATE     READ WRITE CKSUM
zfs_raid                        DEGRADED     0     0     0
  raidz1-0                      DEGRADED     0     0     0
    sda3                        ONLINE       0     0     0
    sdc2                        ONLINE       0     0     0
    sdb1                        ONLINE       0     0     0
    replacing-3                 OFFLINE      0     0     0
      /zfs_jbod/zfs_raid/zfs.2  OFFLINE      0     0     0
      /mnt/butter2/zfs.4        ONLINE       0     0     0  (resilvering)

Bạn không thể làm thay vào đó zfs đính kèm zfs_ston <file> <device> và sau khi đồng bộ hóa zfs tách zfs_ston <file>
BitsOfNix

Sẽ không gắn thiết bị thứ 5 mở rộng mảng không thể đảo ngược? hoặc có thể bạn có ý nghĩa gì đó như thêm một phụ tùng?
barrymac

Không thêm phụ tùng hoặc thêm đĩa mới, thực hiện zpool đính kèm pool old_device new_device, điều này sẽ phản chiếu old_device với new_device, sau đó bạn tách old_device khỏi gương của mình sau khi resilver: docs.oracle.com/cd/E26502_01/html/E29 gayrd.html # scrolltoc <- thông tin về đính kèm / tách và sự khác biệt giữa thêm và đính kèm.
BitsOfNix

Điều đó có vẻ hứa hẹn khi không may trả lại "không thể đính kèm / dev / sdd1 vào /zfs_jbod/zfs_ston/zfs.2: chỉ có thể gắn vào gương và đĩa cấp cao nhất"
barrymac

Bạn có thể đặt đầu ra zfs_ sợ hiện tại của mình để xem bố cục đột kích không?
BitsOfNix

Câu trả lời:


4

Tôi tìm thấy các tùy chọn cần thiết! nhóm hiện đang khôi phục phân vùng mới sau khi ban hành lệnh sau:

 zpool replace  -o ashift=9 zfs_raid <virtual device> /dev/sdd1

Mặc dù điều này là có thể, nhưng không nên vì bạn có hiệu suất khủng bằng cách buộc ổ đĩa loại 4k được ghi là 512b. Tôi đã học được cách khó mà người ta nên thêm

-o ashift=12 

khi tạo nhóm để tránh phải tạo lại nó sau này vì hiện tại không thể 'di chuyển' sang kích thước cung 4k.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.