Thiết bị đã được gắn hoặc tài nguyên đang bận


9

Vấn đề :::

Tôi cài đặt Redhat 5.10 x64 trên máy chủ bị lỗi hdd. Tôi đã xóa hdd cũ bị lỗi và cài đặt cái mới có dung lượng 500GB và sau khi cài đặt, tôi cần sao chép một số dữ liệu từ hdd cũ sang ổ cứng mới dưới / u001. Vì vậy, tôi đã kết nối hdd cũ (320 gb) với máy chủ. Nó đang hiển thị fdisk -lnhưng khi tôi cố gắng sử dụng

sudo mount / dev / sdb2 hoặc / dev / sdb5 nó nói

Lưu ý: Hdd cũ cũng đã cài đặt HĐH cũ như bạn có thể thấy trong fdisk -l
/ dev / sda = New HDD
/ dev / sdb = Old HDD

Thiết bị đã được gắn hoặc tài nguyên đang bận

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Kết quả núi :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: sản lượng

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes

Đầu ra của mountcái gì?
csny

Bạn có thể hiển thị đầu ra của findmnthoặc mount?
Spack

Ngoài ra, đầu ra của lsof +D /media/test/sẽ hữu ích
csny

1
Vấn đề là đĩa cũ không có hệ thống tệp đơn giản trên các phân vùng nhưng có lớp LVM giữa thiết bị te và hệ thống tệp, như được hiển thị bởi loại phân vùng. Đảm bảo hệ thống mới của bạn đã cài đặt các công cụ LVM, khởi động lại với đĩa cũ được đính kèm và kiểm tra lvdisplayxem những thiết bị LVM nào được phát hiện. Bạn sẽ có thể truy cập những người thay vì /dev/sdbX.
wurtel

2
Đối với tất cả những người trợ giúp, Xin lỗi, đó hoàn toàn là lỗi của tôi, tôi hoàn toàn quên rằng đây là phân vùng lvm. Và cần phải gắn kết bằng cách sử dụng mount / dev / mapper / VG_u001 / media / test @wurtel, bạn có thể cho biết những công cụ nào có thể được sử dụng để khôi phục các tệp từ LVMs.
OmiPenguin

Câu trả lời:


2

Ngay cả khi quay lại 5.x, RHEL đã sử dụng LVM theo mặc định. Bạn sẽ phải thực hiện một vài bước trước khi bạn có thể gắn kết khối lượng LVM.

Nếu bạn đã sử dụng cùng tên VG trên đĩa mới như trên đĩa cũ, bạn có một vấn đề: bạn có hai VG có cùng tên. Để xác định duy nhất các VG bạn muốn thao tác (tức là bật /dev/sdbVG), bạn sẽ cần các UUID VG. Chạy:

# pvs -o +vg_uuid

để liệt kê tất cả các PV LVM được phát hiện, bao gồm cả UUID VG của chúng. Bạn cũng sẽ thấy tên VG của từng phân vùng, vì vậy bạn có thể biết liệu có xung đột tên hay không.

LVM đủ lớn và thông minh đủ để không làm rối cấu hình VG đang hoạt động của bạn trừ khi bạn thực sự không thể hiểu được. Vì vậy, nếu pvslệnh được đề cập ở trên sẽ không hiển thị bất cứ điều gì trên /dev/sdb, hãy chạy vgscanvà sau đó thử lại.

Khi bạn biết VG UUID, bạn có thể sử dụng lệnh vgrename để đổi tên bất kỳ VG xung đột nào. Nếu không có xung đột tên, bạn có thể bỏ qua trước vgchange.

(Để gắn LV (s) bên trong VG, bạn sẽ cần kích hoạt VG và VG sẽ không kích hoạt nếu tên của nó mâu thuẫn với VG đã tồn tại.)

Lệnh đổi tên VG trông như thế này:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

trong đó Zvlifi-...súp bảng chữ cái là VG UUID và tham số khác chỉ là tên mới của VG này.

Khi xung đột tên VG được giải quyết (hoặc nếu không có xung đột ở vị trí đầu tiên), bạn sẽ cần kích hoạt (các) VG trên /dev/sdb. Bạn chỉ có thể kích hoạt tất cả các VGM không kích hoạt LVM thấy bằng lệnh này:

vgchange -ay

Khi kích hoạt VG, tên thiết bị (liên kết) của bất kỳ LV nào bên trong nó sẽ xuất hiện dưới dạng /dev/mapper/<VG name>-<LV name>. (Cũng như /dev/<VG name>/<LV name>vì lý do tương thích di sản.)

Tại thời điểm này, bạn có thể gắn kết chúng như bình thường.


Điều này làm việc cho tôi! Tôi đã nhận được lỗi đã được gắn hoặc bận, vì vậy tôi đã làm vgchange -ayvà sau đó có thể chạy:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell

1

Nếu ví dụ

mount /dev/sda1 /mnt/tmp

in

mount: /dev/sda1 is already mounted or /mnt/tmp busy

kiểm tra xem có bất kỳ quy trình sử dụng thiết bị đó không (/ dev / sda1).

Nó thường là một quá trình fsck chạy tự động khi khởi động hệ thống. Bạn có thể kiểm tra nó nhanh chóng, vd

ps aux | grep sda1

Đó chính xác là gốc rễ của vấn đề của tôi, cảm ơn bạn! (vẫn hy vọng rằng đĩa sẽ được gắn chính xác sau khi kiểm tra fsck kết thúc)
Franck

0

Tôi đã đối mặt với một tình huống như vậy. Kinh nghiệm và Giải pháp được thuật lại trong blog của tôi .

Đoạn trích ở đây:

Lỗi: mount: / dev / mapper / STORBCK-backup đã được gắn hoặc / STORBCK bận?

Chẩn đoán: Khi chúng tôi cố gắng gắn kết / STORBCK FS, chúng tôi đang gặp lỗi được đề cập ở trên.

Giải pháp: 1. Khi các FS khác trở thành chỉ đọc, tôi đã dừng / bắt đầu dịch vụ iscsi. nó đã đăng nhập thành công vào Thiết bị. /etc/init.d/iscsi dừng /etc/init.d/iscsi bắt đầu https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-al yet.html

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.