Tôi có phải lo lắng về lỗi lỗi không: thành viên RAID không cần thiết?


9

Khi chạy update-grubtrên Ubuntu 12.04 mới được cài đặt với RAID phần mềm cũ (md), tôi nhận được:

error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Generating grub.cfg ...
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found linux image: /boot/vmlinuz-3.2.0-24-generic
Found initrd image: /boot/initrd.img-3.2.0-24-generic
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found linux image: /boot/vmlinuz-3.2.0-23-generic
Found initrd image: /boot/initrd.img-3.2.0-23-generic
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found memtest86+ image: /boot/memtest86+.bin
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Found Debian GNU/Linux (5.0.9) on /dev/sdb1
Found Debian GNU/Linux (5.0.9) on /dev/sdc1
done

Tôi sẽ bớt lo lắng hơn nếu tin nhắn sẽ nói warning: ..., nhưng vì nó nói error: ...tôi đang tự hỏi vấn đề là gì.

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sdc1[1] sdb1[0]
      48829440 blocks [2/2] [UU]

md3 : active raid1 sdc2[1] sdb2[0]
      263739008 blocks [2/2] [UU]

md1 : active raid5 sdg1[3] sdf1[2] sde1[1] sdh1[0] sdi1[4] sdd1[5](S)
      1250274304 blocks level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

unused devices: <none>

Tôi có phải lo lắng hay điều này vô hại?

btw: bỏ qua việc đề cập đến Debian 5.0.9, đó là hệ thống được cài đặt trước đó và sẽ bị ghi đè. Đó là trên /dev/md2thực tế.

Câu trả lời:


7

Như được đề cập ở đây bởi Fussy Salsify, đây dường như là một lỗi của kịch bản cập nhật với thiết bị dự phòng trong một trong các mảng RAID. Như đã đề cập ở đây, một bản vá đã được áp dụng và sẽ đến Ubuntu vào một lúc nào đó.

Boyd Stephen Smith Jr. cho biết ông nghĩ rằng báo cáo lỗi này có thể chỉ là mỹ phẩm ở đâyVladimir 'cod-coder / phcoder' của Vladimir đã gửi một bản vá dường như chỉ thay đổi báo cáo lỗi thành "dự phòng không được thực hiện".

Ngoài ra, có một báo cáo lỗi tại launchpad ( # 816475 ) và một cách giải quyết có thể liên quan đến việc thay đổi phân vùng. Tầm quan trọng của lỗi này chưa được quyết định tại launchpad nhưng có vẻ như nó đã gây ra một số vấn đề thực sự đối với Bjorn Tillenius không thể nâng cấp / cài đặt grub. Vì vậy, có vẻ như bạn nên cẩn thận.


Cảm ơn @desgua, phần quan trọng nhất của câu hỏi là liệu tôi có cần phải lo lắng không (ví dụ: hệ thống của tôi trở nên không thể khởi động được) do các lỗi. Thật không may, ngay cả việc sàng lọc báo cáo lỗi mà bạn liên kết, dường như không có tuyên bố kết luận và / hoặc có thẩm quyền nào về việc tôi có phải lo lắng về điều đó hay không. 1 cho các con trỏ đã :)
0xC0000022L

Tôi đã tìm thấy một số thông tin thêm ;-)
desgua

0

Tôi đã gặp lỗi này trên Ubuntu 12.04 cả trong quá trình nâng cấp-grub và trong một thời gian ngắn khi khởi động PC nhưng đó là do cấu hình sai ở phía tôi:

Tôi đã có hai phân vùng trên hai đĩa được ghép nối với mdadm bằng RAID1. Sau khi một đĩa bị hỏng, tôi đã thay thế nó và thêm một đĩa mới nhưng tại một số điểm trong khi nhập các lệnh để thêm các phân vùng ( mdadm --manage /dev/md... -a /dev/sd...) tôi đã thêm nhầm toàn bộ đĩa (/ dev / sdb ) thay vì phân vùng (/ dev / sdb1 ) như một phần của / dev / md1. Tôi đã gỡ bỏ toàn bộ đĩa và thêm chính xác phân vùng và mọi thứ trông vẫn ổn ở / Proc / mdstat vì vậy tôi nghĩ rằng tôi đã kết thúc.

Tuy nhiên, khi khởi động lại "lỗi: thành viên RAID không cần thiết (đã tìm thấy 2)." đã xuất hiện nhanh trên màn hình của tôi và mảng đột kích không được xây dựng lại với các phân vùng của đĩa mới.

Tôi đã phải loại bỏ siêu khối của / dev / sdb (đĩa) mdadm --zero-superblock /dev/sdbđể sửa nó và cũng có lỗi "lỗi: thành viên RAID không cần thiết (tìm thấy 2)". cả từ khởi động và cập nhật-grub.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.