ทำไมพิกเซลที่มีประสิทธิภาพมากกว่าความละเอียดจริง


16

หน้านี้เปรียบเทียบกล้องและการกล่าวถึงของ Canon EOS 550D และ Canon EOS 500D

พิกเซลที่ใช้งานจริง 18.7 ล้านพิกเซล

สำหรับ 550D อย่างไรก็ตามความละเอียดที่ดีที่สุดที่เป็นไปได้ในการใช้กล้องนี้คือ

5184 * 3456 = 17915904 ~ 17.9 million pixels

พิกเซลที่มีประสิทธิภาพคืออะไรและทำไมจำนวนนี้มากกว่า 17.9 ล้านในกรณีนี้


1
นอกจากนี้โปรดทราบว่า "การแก้ไข" มีสองความหมาย ในคอมพิวเตอร์เราใช้เพื่ออ้างถึงขนาดพิกเซลของหน้าจอหรือภาพ และในการวาดภาพคอมพิวเตอร์หรือภาพที่สร้างขึ้นซึ่งมักจะตรงกับความละเอียด "จริง" - จำนวนรายละเอียดที่ได้รับการแก้ไขจริงในภาพ แต่ในรูปถ่ายมันไม่จำเป็นต้องเป็นอย่างนั้น
mattdm

1
นั่นไม่ใช่สิ่งที่เกิดขึ้นที่นี่ - เพียงแค่เพิ่มเติมแหล่งที่มาของความสับสน
mattdm

คำตอบ:


9

ส่วนหนึ่งของสิ่งที่เราเห็นที่นี่คือ (ฉันค่อนข้างแน่ใจ) ไม่มีอะไรมากไปกว่าการพิมพ์ผิดง่าย ๆ (หรือบางอย่างตามลำดับนั้น) ในส่วนของ DPReview.com จากข้อมูลของ Canon [PDF, หน้า 225] จำนวนหลุมในเซ็นเซอร์คือ "ประมาณ 18.00 ล้านพิกเซล"

สิ่งเหล่านี้จะลดลงเหลือประมาณ 17.9 ล้านพิกเซลเมื่ออินพุตรูปแบบไบเออร์กลายเป็นสิ่งที่พวกเราส่วนใหญ่คิดว่าเป็นพิกเซล ความแตกต่างนั้นค่อนข้างง่าย: แต่ละตัวบนเซ็นเซอร์จะรับแสงได้เพียงสีเดียวแต่พิกเซลตามที่คุณคาดหวังไว้ในเอาต์พุต (เช่นไฟล์ JPEG หรือ TIFF) มีสามสีสำหรับแต่ละพิกเซล เมื่อดูอย่างรวดเร็วครั้งแรกอาจดูเหมือนว่าไฟล์นั้นจะมีพิกเซลเพียงประมาณหนึ่งในสามของจำนวนพิกเซลที่มีเซ็นเซอร์หลุมในอินพุต เห็นได้ชัดว่าไม่ใช่กรณี ต่อไปนี้เป็นมุมมองที่เรียบง่ายว่าสิ่งต่าง ๆ ทำงานอย่างไร:

รูปแบบไบเออร์ที่เรียบง่าย

ตัวอักษรแต่ละตัวแสดงให้เห็นถึงหนึ่งในเซ็นเซอร์ แต่ละช่องแสดงถึงหนึ่งพิกเซลสามสีในขณะที่มันจะไปในไฟล์ที่ส่งออก

ในส่วน "การตกแต่งภายใน" ของเซ็นเซอร์แต่ละพิกเซลเอาต์พุตขึ้นอยู่กับอินพุตจากบ่อเซ็นเซอร์สี่หลุมแต่แต่ละหลุมจะใช้เซ็นเซอร์เป็นอินพุตถึงสี่พิกเซลเอาต์พุตที่แตกต่างกันดังนั้นจำนวนอินพุตและจำนวนเอาต์พุตจึงยังคงเหมือนเดิม

อย่างไรก็ตามเรามีหลุมเซ็นเซอร์ที่มีส่วนร่วมเพียงสองพิกเซลแทนที่จะเป็นสี่รอบ ที่มุมเซ็นเซอร์แต่ละอย่างดีเท่านั้นก่อให้เกิดพิกเซลผลผลิตหนึ่ง

นั่นหมายถึงจำนวนพิกเซลที่ส่งออกทั้งหมดมีขนาดเล็กกว่าจำนวนหลุมเซ็นเซอร์ ผลลัพธ์จะมีขนาดเล็กลงหนึ่งแถวและหนึ่งคอลัมน์เมื่อเปรียบเทียบกับอินพุต (เช่นในตัวอย่างเรามีเซ็นเซอร์ 8x3 แต่พิกเซลเอาต์พุต 7x2)


+1 โดยเฉพาะอย่างยิ่งสำหรับแผนภาพ แต่ฉันก็ยังงงเพราะจะอธิบายว่าไม่มี 2 (5184-1 + 3456-1) = ประมาณ 17K พิกเซลซึ่งเพิ่งหายไปในการปัดเศษในการคำนวณ 18.0 - 17.9 = 0.1 ล้านพิกเซล ดูเหมือนว่าอย่างน้อยสามเท่าของพิกเซลจำนวนมากต้องถูกแยกออกจากขอบเขต (เนื่องจากสิ่งใดก็ตามที่น้อยกว่า 50K ควรปัดลงเป็น 0.0M) บางที demosaicing กำลังใช้พื้นที่ใกล้เคียงที่มีขนาดใหญ่กว่าที่แสดงอยู่ที่นี่ 2 x 2: บางทีอาจใช้พื้นที่ใกล้เคียง 7 x 7 หรือไม่
whuber

1
@whuber: Offhand ฉันไม่แน่ใจว่าฉันสามารถบัญชีที่เหลือโดยตรง แน่นอนว่าเป็นไปได้ที่จะใช้เซ็นเซอร์มากขึ้นเพื่อสร้างพิกเซลเอาต์พุตเดียว แต่ฉันไม่มีทางรู้จริงว่านี่คือสิ่งที่ Canon ทำในกรณีนี้ ไฟล์ดิบจากกล้องจะให้จำนวนหลุมเซ็นเซอร์ที่แน่นอน แต่ก็ยังคงไม่บอกว่า Canon ได้รับจากอินพุต X ถึงเอาต์พุต Y ได้อย่างไร
Jerry Coffin

3
ในขั้นตอนวิธีการ demosaicing ที่ดี (เช่นการปรับความสม่ำเสมอของความเป็นเนื้อเดียวกันที่ปรับได้) เซ็นเซอร์แต่ละตัวมีส่วนช่วยในการส่งออกมากกว่าสี่พิกเซลพิกเซลดังนั้นจึงเป็นมากกว่าแถวหรือคอลัมน์เดียวที่หายไป มันง่ายพอที่จะจับเอาท์พุทที่ไม่ได้รับความเสียหายจาก dcraw และเปรียบเทียบขนาดภาพกับเอาท์พุทของ DPP ของ Canon เพื่อรับคำตอบที่ชัดเจนฉันจะให้มันไปเมื่อฉันมีเวลา
Matt Grum

@ Matt Grum: ใช่ - มองย้อนกลับไปความคิดเห็นก่อนหน้าของฉันค่อนข้างจะพูดได้แย่ สิ่งที่ฉันพยายามทำคือมีหลายขั้นตอนที่สามารถ (และจะ) ลด / ยกเลิก ~ 3 แถว / คอลัมน์ของพิกเซล แต่จำนวนพิกเซลเพียงอย่างเดียวจะไม่บอกคุณว่ากำลังใช้อะไรอยู่ การใช้อัลกอริธึมที่ซับซ้อนยิ่งขึ้นซึ่งใช้เซ็นเซอร์มากขึ้นต่อพิกเซลที่ส่งออกจะได้รับจริง
Jerry Coffin

5

ฉันไม่ทราบว่าเหตุใด DPReview จึงใช้คำว่า "ประสิทธิภาพ" แต่มีเหตุผลสองประการที่ทำให้เกิดความคลาดเคลื่อนระหว่างจำนวน photosites (พิกเซล) บนชิปและขนาดเป็นพิกเซลของภาพที่ได้

เซ็นเซอร์กล้องบางตัวมีแถบพิกเซลที่ถูกปิดบังไว้แต่ละข้าง พิกเซลเหล่านี้เหมือนกันกับจำนวนมากของพิกเซลบนเซ็นเซอร์ยกเว้นว่าพวกเขาจะไม่ได้รับแสง พวกเขาจะใช้ในการตรวจจับสัญญาณรบกวนและลบออกจากสัญญาณที่ผลิตโดยพิกเซลที่ไวต่อแสง

ขั้นตอนที่สอง [ดี] ขั้นตอนการทำลายล้างใช้จำนวนมาก "การดำเนินงานพื้นที่ใกล้เคียง" ซึ่งหมายความว่าค่าของพิกเซลขึ้นอยู่กับมูลค่าของพิกเซลที่อยู่ใกล้เคียง พิกเซลที่ขอบสุดขีดของภาพไม่มีเพื่อนบ้านดังนั้นจึงนำไปสู่พิกเซลอื่น แต่ไม่ได้เพิ่มขนาดภาพ

อาจเป็นไปได้ว่ากล้องตัดเซ็นเซอร์ด้วยเหตุผลอื่น ๆ (เช่นวงกลมภาพเลนส์ไม่ครอบคลุมเซ็นเซอร์) แม้ว่าฉันจะสงสัยว่านี่เป็นกรณีที่ 550D


มีการใช้พิกเซลขอบเพื่อกำจัดสัญญาณรบกวนหรือเพื่อตั้งจุดดำ
mattdm

1
ทั้งฉันเดาว่าถ้าไม่มีการแทรกแซงใด ๆ (รวมถึงการตอบสนองต่อความร้อน) จุดสีดำจะเป็น 0
Matt Grum

คำอธิบายของ dpreview สำหรับฉันดูเหมือนว่ามันจะไปมาระหว่างแนวคิดที่ตรงกันข้ามสองอย่างและฉันไม่เห็นว่ามันนิยามคำจริงๆยกเว้นโดยปริยาย คำตอบของคุณผมคิดว่าจะช่วยให้เล็ก ๆ น้อย ๆ แต่ยังคงทิ้งฉันสงสัยว่าทำไม "ที่มีประสิทธิภาพ" พิกเซลจะมีมากขึ้นกว่าเว็บไซต์รูปภาพจริง แต่หน้า dpreview ไม่ให้เป็นไปได้บาง มีประสิทธิภาพ: ใช้เพื่อทำเอฟเฟกต์ข้อมูลภาพหรือไม่ หรือวันที่ภาพในท้ายที่สุดได้รับผลกระทบดังนั้น? (หมายเหตุ: เอฟเฟกต์คำกริยากับ e: สร้างชีวิต) ฉันยังคงสงสัยว่าพวกเขาหมายถึงอะไร
lindes

5

มีสองสาเหตุที่พิกเซลที่มีประสิทธิภาพนั้นน้อยกว่าจำนวนพิกเซลเซ็นเซอร์ที่แท้จริง (องค์ประกอบการตรวจจับหรือการรับรู้) ประการแรกเซ็นเซอร์ของไบเออร์ประกอบด้วย "พิกเซล" ซึ่งสัมผัสได้ถึงแสงสีเดียว โดยปกติแล้วจะมีประสาทสัมผัสสีแดงสีเขียวและสีน้ำเงินจัดเป็นคู่ในรูปแบบของ:

RGRGRGRG
GBGBGBGB

"พิกเซล" เดียวที่เราคุ้นเคยเป็นส่วนใหญ่พิกเซลสไตล์ RGB ของหน้าจอคอมพิวเตอร์นั้นสร้างขึ้นจากเซ็นเซอร์ไบเออร์โดยรวมประสาทสัมผัสทั้งสี่เข้าด้วยกันซึ่งเป็นสี่กลุ่ม RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

เนื่องจากตาราง 2x2 ของเซ็นเซอร์ตรวจจับสี่ RGBG ถูกนำมาใช้เพื่อสร้างพิกเซลคอมพิวเตอร์ RGB เดียวจึงมีพิกเซลไม่เพียงพอเสมอไปตามขอบของเซ็นเซอร์เพื่อสร้างพิกเซลแบบเต็ม โดยปกติจะมีเส้นขอบ "พิเศษ" ของพิกเซลบนเซ็นเซอร์ไบเออร์เพื่อรองรับสิ่งนี้ อาจมีเส้นขอบของพิกเซลเพิ่มเติมเพียงเพื่อชดเชยการออกแบบเซ็นเซอร์ทำหน้าที่เป็นพิกเซลการปรับเทียบและรองรับส่วนประกอบเซ็นเซอร์พิเศษซึ่งโดยปกติจะมีตัวกรอง IR และ UV ตัวกรองการลบรอยหยักเป็นต้นซึ่งอาจขัดขวาง แสงเต็มจำนวนจากการเข้าถึงส่วนนอกของเซ็นเซอร์

ในที่สุดเซ็นเซอร์ไบเออร์จะต้อง "demosaiced" เพื่อสร้างภาพ RGB ปกติของพิกเซลคอมพิวเตอร์ มีหลายวิธีที่แตกต่างกันในการ demosaic เซ็นเซอร์ไบเออร์ แต่อัลกอริธึมส่วนใหญ่พยายามที่จะเพิ่มจำนวนพิกเซล RGB ที่สามารถแยกได้โดยการผสมพิกเซล RGB จากทุกชุดที่เป็นไปได้ของ 2x2 RGBG ที่ทับซ้อนกัน:

Demosaicing ไบเออร์

สำหรับเซ็นเซอร์ที่มีความรู้สึกสีเดียวทั้งหมด 36 ตัวสามารถแยกพิกเซล RGB ขนาดใหญ่ได้ทั้งหมด 24 พิกเซล สังเกตลักษณะที่ทับซ้อนกันของอัลกอริธึม demosaicing โดยดู GIF แบบเคลื่อนไหวด้านบน และโปรดสังเกตว่าในระหว่างรอบที่สามและสี่ผ่านไม่ได้ใช้แถวบนและแถวล่าง สิ่งนี้แสดงให้เห็นว่าพิกเซลของเส้นขอบของเซ็นเซอร์อาจไม่ถูกนำไปใช้เมื่อทำการแยกอาร์เรย์ Sensel ของไบเออร์

สำหรับหน้า DPReview ฉันเชื่อว่าพวกเขาอาจมีข้อมูลที่ไม่ถูกต้อง ฉันเชื่อว่าจำนวนทั้งหมดของเซ็นเซอร์ (พิกเซล) ในเซ็นเซอร์ Canon 550D Bayer คือ 18.0mp ในขณะที่พิกเซลที่มีประสิทธิภาพหรือจำนวนพิกเซลคอมพิวเตอร์ RGB ที่สามารถสร้างจากฐาน 18mp นั้นคือ 5184x3456 หรือ 17,915,904 (17.9mp) ความแตกต่างนั้นจะลดลงไปถึงพิกเซลของเส้นขอบเหล่านั้นซึ่งไม่สามารถประกอบเป็นสี่ส่วนได้อย่างสมบูรณ์และอาจเป็นบางส่วนของพิกเซลเส้นขอบเพิ่มเติมเพื่อชดเชยการออกแบบตัวกรองและฮาร์ดแวร์การติดตั้งที่อยู่ด้านหน้าเซ็นเซอร์


ฉันเพิ่งสังเกตเห็นว่าฉันนับความรู้สึกผิดในภาพเคลื่อนไหวของฉัน ในสองขั้นตอนแรกมันไม่ได้รวม 8 ประสาทสัมผัส ... มันรวม 28 ประสาทสัมผัสเป็น 8 พิกเซล ในสองขั้นตอนสุดท้ายนั้นจะรวม 14 เซ็นเซอร์เป็น 4 พิกเซล ขออภัยในความแตกต่าง ฉันจะพยายามแก้ไขในไม่ช้า
jrista

-3

ขออภัยที่จะผิดหวัง แต่ไม่มีคำอธิบายใดที่เป็นจริง ในเซ็นเซอร์ทุกตัวจะมีพื้นที่นอกพื้นที่ถ่ายภาพที่มีรูปถ่าย บางส่วนถูกปิดใช้งานบางส่วนถูกเปิดใช้อย่างสมบูรณ์และบางส่วนถูกใช้เพื่อวัตถุประสงค์ในการตรวจสอบอื่น ๆ สิ่งเหล่านี้ถูกใช้เพื่อตั้งค่าระดับแอมป์และสมดุลสีขาวเป็น "ชุดควบคุม" กับการถ่ายภาพที่เกิดขึ้นจริง

หากคุณใช้ข้อมูลเซ็นเซอร์ RAW จากกล้อง Powershot ที่ใช้งานร่วมกันได้ของ CHDK ใด ๆ และใช้ dcraw ในการแปลงคุณสามารถรับภาพเซ็นเซอร์แบบเต็มซึ่งรวมถึงพื้นที่สีดำ 100% และพื้นที่สีขาว 100%

สิ่งที่น่าสนใจคือความละเอียดของขนาดภาพ RAW ในกล้องนั้นใหญ่กว่าผล JPG ในกล้องเสมอ เหตุผลวิธีการแก้ไขที่ง่ายกว่าและเร็วกว่านั้นใช้ในกล้องจาก RAW ถึง JPG จำเป็นต้องมี photosites RGB โดยรอบเพื่อกำหนดสีสุดท้ายของแต่ละพิกเซล ภาพถ่ายขอบและมุมไม่มีการอ้างอิงสีโดยรอบเหล่านี้ในทุกด้าน การดำเนินการในภายหลังบนคอมพิวเตอร์ที่มีซอฟต์แวร์การแก้ไข RAW ที่ดีกว่าจะช่วยให้คุณสามารถเรียกคืนความละเอียดของขนาดภาพได้มากกว่าสิ่งที่สามารถรับได้จาก JPG ในกล้อง

ps ผู้วิจารณ์ DPReview และผู้เขียนบทความไม่ควรถูกนำไปเผยแพร่ในฐานะพระกิตติคุณ ฉันพบช่องโหว่จำนวนมากในการทดสอบและตัวอย่างที่เห็นได้ชัดซึ่งผู้ทดสอบไม่รู้แม้แต่วิธีการใช้กล้องว่าฉันได้ลดคำแนะนำของพวกเขาเมื่อหลายปีก่อน


5
แม้จะมีความคิดเห็นของคุณว่า "ไม่มีคำอธิบายใดที่เป็นความจริง" แต่คำตอบอื่น ๆ ได้กล่าวถึงเรื่องนี้อยู่แล้ว
mattdm
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.