อย่างที่คนอื่น ๆ บอกไม่มีขนาดบล็อกที่ถูกต้องในระดับสากล สิ่งที่ดีที่สุดสำหรับสถานการณ์หนึ่งหรือฮาร์ดแวร์ชิ้นเดียวอาจไม่มีประสิทธิภาพอย่างมากสำหรับอีกชิ้นหนึ่ง นอกจากนี้ขึ้นอยู่กับความสมบูรณ์ของดิสก์อาจเป็นที่นิยมที่จะใช้ขนาดบล็อกที่แตกต่างจากที่ "เหมาะสมที่สุด"
สิ่งหนึ่งที่ค่อนข้างน่าเชื่อถือในฮาร์ดแวร์สมัยใหม่ก็คือขนาดบล็อกเริ่มต้น 512 ไบต์มีแนวโน้มที่จะเรียงลำดับขนาดได้ช้ากว่าทางเลือกที่ดีกว่า เมื่อมีข้อสงสัยฉันพบว่า 64K เป็นค่าเริ่มต้นที่ค่อนข้างทันสมัย แม้ว่า 64K จะไม่ใช่ขนาดบล็อกที่เหมาะสมที่สุด แต่จากประสบการณ์ของฉันมันมีแนวโน้มที่จะมีประสิทธิภาพมากกว่าค่าเริ่มต้นมาก 64K ยังมีประวัติที่มั่นคงในการเป็นนักแสดงที่น่าเชื่อถือ: คุณสามารถค้นหาข้อความจากรายชื่ออีเมลของ Eug-Lug ประมาณปี 2002 โดยแนะนำขนาดบล็อก 64K ที่นี่: http://www.mail-archive.com/eug- lug@efn.org/msg12073.html
สำหรับการกำหนดขนาดบล็อกเอาต์พุตที่ดีที่สุดฉันได้เขียนสคริปต์ต่อไปนี้ซึ่งทดสอบการเขียนไฟล์ทดสอบ 128M ด้วย dd ในช่วงของขนาดบล็อกที่แตกต่างกันตั้งแต่ค่าเริ่มต้น 512 ไบต์ไปจนถึงสูงสุด 64M ขอเตือนสคริปต์นี้ใช้ dd ภายในดังนั้นโปรดใช้ด้วยความระมัดระวัง
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
ดูบน GitHub
ฉันได้ทดสอบสคริปต์นี้บนระบบ Debian (Ubuntu) และบน OSX Yosemite เท่านั้นดังนั้นอาจต้องใช้การปรับแต่งเพื่อให้สามารถใช้งานกับรสชาติอื่น ๆ ของ Unix ได้
ตามค่าเริ่มต้นคำสั่งจะสร้างไฟล์ทดสอบชื่อdd_obs_testfileในไดเร็กทอรีปัจจุบัน หรือคุณสามารถระบุเส้นทางไปยังไฟล์ทดสอบที่กำหนดเองได้โดยระบุเส้นทางหลังชื่อสคริปต์:
$ ./dd_obs_test.sh /path/to/disk/test_file
ผลลัพธ์ของสคริปต์คือรายการขนาดบล็อกที่ทดสอบและอัตราการถ่ายโอนตามลำดับดังนี้:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(หมายเหตุ: หน่วยของอัตราการถ่ายโอนจะแตกต่างกันไปตามระบบปฏิบัติการ)
ในการทดสอบขนาดบล็อกการอ่านที่เหมาะสมที่สุดคุณสามารถใช้กระบวนการเดียวกันได้มากหรือน้อย แต่แทนที่จะอ่านจาก / dev / zero และเขียนลงดิสก์คุณจะอ่านจากดิสก์และเขียนลงใน / dev / null สคริปต์ในการดำเนินการนี้อาจมีลักษณะดังนี้:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
ดูบน GitHub
ข้อแตกต่างที่สำคัญในกรณีนี้คือไฟล์ทดสอบเป็นไฟล์ที่เขียนโดยสคริปต์ อย่าชี้คำสั่งนี้ไปที่ไฟล์ที่มีอยู่มิฉะนั้นไฟล์ที่มีอยู่จะถูกเขียนทับด้วยศูนย์!
สำหรับฮาร์ดแวร์เฉพาะของฉันฉันพบว่า 128K เป็นขนาดบล็อกอินพุตที่เหมาะสมที่สุดบน HDD และ 32K เหมาะสมที่สุดสำหรับ SSD
แม้ว่าคำตอบนี้จะครอบคลุมการค้นพบส่วนใหญ่ของฉัน แต่ฉันก็พบกับสถานการณ์นี้หลายครั้งมากพอที่ฉันจะเขียนบล็อกโพสต์เกี่ยวกับเรื่องนี้: http://blog.tdg5.com/tuning-dd-block-size/คุณสามารถค้นหาข้อมูลเฉพาะเพิ่มเติมได้ ในการทดสอบที่ฉันทำที่นั่น