Kích thước khối tốt để nhân bản đĩa với đĩa đệm (dd)


47

Tôi sử dụng dd ở dạng đơn giản nhất để sao chép ổ cứng:

dd if=INPUT of=OUTPUT

Tuy nhiên, tôi đọc trong trang cá nhân rằng dd biết một tham số blockize. Có một giá trị tối ưu cho tham số blockize sẽ tăng tốc thủ tục nhân bản không?


Câu trả lời:


32

64k có vẻ là một lựa chọn tốt:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(lấy từ đây ).

điều này phù hợp với những phát hiện của riêng tôi về bộ đệm đọc / ghi để tăng tốc chương trình chuyển đổi nặng io mà tôi đã từng làm quen với @work.


Xin lưu ý rằng điểm chuẩn này có thể trông khác nhau đối với các ổ đĩa quay và ssds.
Jiri

3
-1 Điều này gần như hoàn toàn phụ thuộc vào ổ cứng của bạn. Thay vì mô tả quy trình được sử dụng để có được các giá trị này để OP có thể lặp lại các bước để có được kích thước khối tối ưu cho ổ cứng của chính mình. Ngoài ra, bạn chưa liệt kê 64k trong danh sách kết quả của mình và tất cả các kết quả trước 1k đều ít nhiều giống nhau.
Micheal Johnson

@MichealJohnson thoải mái chỉnh sửa bài đăng này và lấy mô tả về cách bảng đó được tạo từ liên kết được cung cấp và dán vào đây. 64k là giá trị đầu tiên dường như không mang lại sự cải thiện nào về tốc độ VÀ là sự liên kết tự nhiên. và vâng, rõ ràng là tốc độ đo được phụ thuộc hoàn toàn vào phần cứng được sử dụng. điều này đã đúng 5 năm trước và bây giờ là sự thật.
akira

1
Tại sao 64k? Đối với tôi, 2k không mang lại bất kỳ cải thiện nào nữa và vì vậy 1k là giá trị tốt nhất và cũng là sự liên kết tự nhiên như 64k.
Micheal Johnson

Có kích thước khối thay đổi hiệu suất của thẻ SD hoặc chỉ cắt kích thước của tệp di chuyển bằng cách sử dụng dd sang sdcard?
Trismegistos

23

dd sẽ vui vẻ sao chép bằng cách sử dụng BS của bất cứ điều gì bạn muốn và sẽ sao chép một phần khối (ở cuối).

Về cơ bản, tham số kích thước khối (bs) dường như đặt lượng bộ nhớ được sử dụng để đọc trong một khối từ một đĩa trước khi cố gắng ghi khối này sang ổ khác.

Nếu bạn có nhiều RAM, thì làm cho BS lớn (nhưng hoàn toàn chứa trong RAM) có nghĩa là hệ thống phụ I / O được sử dụng càng nhiều càng tốt bằng cách đọc và ghi lớn ồ ạt - khai thác RAM. Làm cho BS nhỏ có nghĩa là tổng chi phí I / O như một tỷ lệ của toàn bộ hoạt động tăng lên.

Tất nhiên trong này có luật giảm lợi nhuận. Sự gần đúng sơ bộ của tôi là kích thước khối trong khoảng 128K đến 32M có lẽ sẽ mang lại hiệu suất sao cho các chi phí nhỏ so với I / O đơn giản và lớn hơn sẽ không có nhiều khác biệt. Lý do cho giới hạn dưới là 128K đến 32M là - nó phụ thuộc vào hệ điều hành, phần cứng của bạn, v.v.

Nếu là tôi, tôi sẽ thực hiện một vài thử nghiệm định thời gian sao chép / sao chép bằng BS 128K và một lần nữa sử dụng (giả sử) 16M. Nếu một trong những đáng kể nhanh hơn, sử dụng nó. Nếu không, sau đó sử dụng BS nhỏ hơn của hai.


10

Đối với những người kết thúc ở đây thông qua Google, ngay cả khi cuộc thảo luận này hơi cũ ...

Hãy nhớ rằng dd bị câm vì một lý do: càng đơn giản, càng ít cách để nó có thể làm hỏng.

Các lược đồ phân vùng phức tạp (xem xét một ổ cứng khởi động kép có sử dụng LVM cho hệ thống Linux của nó) sẽ bắt đầu kéo các lỗi ra khỏi đồ gỗ trong các chương trình như Clonezilla. Các hệ thống tập tin xấu không thể đếm được có thể thổi ntfsclone lên cao.

Một hệ thống tập tin bị hỏng nhân bản theo từng khu vực không tệ hơn bản gốc. Một hệ thống tập tin bị hỏng sau khi "bản sao thông minh" bị lỗi có thể ở dạng xin lỗi THỰC SỰ.

Khi nghi ngờ, sử dụng dd và đi pháp y. Hình ảnh pháp y yêu cầu các bản sao theo từng lĩnh vực (trên thực tế, nó có thể yêu cầu nhiều lĩnh vực hơn bạn sẽ có thể thực hiện với dd, nhưng đó là một câu chuyện dài). Nó chậm và tẻ nhạt nhưng nó sẽ hoàn thành công việc một cách chính xác.

Ngoài ra, hãy tìm hiểu các tùy chọn "conv = noerror, sync" để bạn có thể sao chép các ổ đĩa đang bắt đầu thất bại-- hoặc tạo ISO từ các đĩa CD bị trầy xước - ho mà không mất vài tháng.


Không những gì synclựa chọn làm gì? Trang người đàn ông chỉ nói : "use synchronized I/O for data and metadata". Chúng ta đang đồng bộ hóa với cái gì? Đó có thể là nhiều thứ khác nhau.
sherrellbc

1
Đồng bộ @sherrellbc sẽ lấp đầy các khối đầu vào bằng số 0 nếu có bất kỳ lỗi đọc nào, do đó, dữ liệu được giữ nguyên đồng bộ hóa.
goetzc

9

Như những người khác đã nói, không có kích thước khối chính xác toàn cầu; những gì là tối ưu cho một tình huống hoặc một phần cứng có thể không hiệu quả khủng khiếp cho một tình huống khác. Ngoài ra, tùy thuộc vào sức khỏe của các đĩa, có thể nên sử dụng kích thước khối khác với mức "tối ưu".

Một điều khá đáng tin cậy trên phần cứng hiện đại là kích thước khối mặc định 512 byte có xu hướng gần như là một thứ tự cường độ chậm hơn so với một sự thay thế tối ưu hơn. Khi nghi ngờ, tôi đã thấy rằng 64K là một mặc định hiện đại khá vững chắc. Mặc dù 64K thường không phải là kích thước khối tối ưu, nhưng theo kinh nghiệm của tôi, nó có xu hướng hiệu quả hơn nhiều so với mặc định. 64K cũng có một lịch sử khá vững chắc về hiệu suất đáng tin cậy: Bạn có thể tìm thấy một tin nhắn từ danh sách gửi thư của Eug-Lug, khoảng năm 2002, đề xuất kích thước khối là 64K tại đây: http://www.mail-archive.com/eug- lug@efn.org/msg12073.html

Để xác định kích thước khối đầu ra tối ưu, tôi đã viết đoạn mã sau kiểm tra việc ghi tệp thử nghiệm 128M với dd ở một phạm vi kích thước khối khác nhau, từ mặc định 512 byte đến tối đa 64M. Được cảnh báo, tập lệnh này sử dụng dd trong nội bộ, vì vậy hãy thận trọng khi sử dụng.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Xem trên GitHub

Tôi chỉ thử nghiệm tập lệnh này trên hệ thống Debian (Ubuntu) và trên OSX Yosemite, vì vậy có lẽ sẽ cần một số điều chỉnh để thực hiện các hương vị Unix khác.

Theo mặc định, lệnh sẽ tạo một tệp thử nghiệm có tên dd_obs_testfile trong thư mục hiện tại. Ngoài ra, bạn có thể cung cấp đường dẫn đến tệp thử nghiệm tùy chỉnh bằng cách cung cấp đường dẫn sau tên tập lệnh:

$ ./dd_obs_test.sh /path/to/disk/test_file

Đầu ra của tập lệnh là một danh sách các kích thước khối được kiểm tra và tốc độ truyền tương ứng của chúng như sau:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Lưu ý: Đơn vị của tốc độ truyền sẽ thay đổi theo HĐH)

Để kiểm tra kích thước khối đọc tối ưu, bạn có thể sử dụng ít nhiều cùng một quy trình, nhưng thay vì đọc từ / dev / zero và ghi vào đĩa, bạn sẽ đọc từ đĩa và ghi vào / dev / null. Một kịch bản để làm điều này có thể trông giống như vậy:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Xem trên GitHub

Một sự khác biệt quan trọng trong trường hợp này là tệp thử nghiệm là một tệp được viết bởi tập lệnh. Không trỏ lệnh này vào một tệp hiện có hoặc tệp hiện có sẽ bị ghi đè bằng dữ liệu ngẫu nhiên!

Đối với phần cứng cụ thể của tôi, tôi thấy rằng 128K là kích thước khối đầu vào tối ưu nhất trên ổ cứng và 32K là tối ưu nhất trên ổ SSD.

Mặc dù câu trả lời này bao gồm hầu hết các phát hiện của tôi, tôi đã gặp phải tình huống này đủ lần tôi đã viết một bài đăng trên blog về nó: http://blog.tdg5.com/tuning-dd-block-size/ Bạn có thể tìm thấy nhiều thông tin cụ thể hơn trong các bài kiểm tra tôi thực hiện ở đó.

Bài đăng StackOverflow này cũng có thể hữu ích: dd: Làm thế nào để tính toán kích thước khối tối ưu?


3

Có, nhưng bạn sẽ không tìm thấy nó mà không có nhiều thử nghiệm. Tôi đã thấy rằng 32M là một giá trị tốt để sử dụng mặc dù.


1

Nhân bản ổ đĩa khởi động cũ sang ssd mới trên sata bên ngoài (ssd sang ssd)

  • sử dụng Ubuntu Ubuntu 18.04.2 LTS 64 bit
  • hp xw4600 (RAM 8GB, intel Core 2 Quad Q6700 @ 2.66GHz 4c / 4t no-HT)

sử dụng Đĩa (công cụ)> định dạng> Xóa an toàn ATA (2 phút)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: SSD SSD (cũ; Đĩa báo cáo tốc độ trung bình là 263 MB / s với đỉnh gần 270 MB / s - không có kiểm tra ghi do đĩa hệ thống)
  • sdf: MX500 quan trọng, 500GB, CT500MX500SSD1 (Báo cáo đĩa: tốc độ trung bình / lần ghi trung bình 284/262 MB / s và thời gian truy cập 0,05ms, với mức cao nhất khoảng 290/270 MB / s

Chạy thử:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

thử lần thứ hai sau khi xóa an toàn với kết quả tương tự:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s

Chào mừng bạn đến với Siêu người dùng! Cảm ơn câu trả lời của bạn, nhưng tôi khuyên bạn nên chỉnh sửa nó để bao gồm tóm tắt; Trong số tất cả các đầu ra được trích dẫn, tôi thấy thật khó để tìm ra câu trả lời thực sự của bạn là gì! Chúc mừng
bertieb
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.