กล้องความละเอียดสูงมีความสำคัญอย่างไรเมื่อเอาต์พุตมีความละเอียดต่ำ


17

คำถามคือแรงบันดาลใจจากคำถามนี้แสดงให้เห็นภาพเหล่านี้
คำตอบที่ได้รับการยอมรับแสดงให้เห็นว่าภาพเหล่านี้ถ่ายโดยกล้องดู 8x10 และการใช้กล้อง 8x10 ได้รับการยืนยันในความคิดเห็น

คำถามของฉันคือคุณจะบอกได้อย่างไร


เมื่อดูบนหน้าเว็บภาพเหล่านี้คือ 496x620 = 0.37 ล้านพิกเซล (หรือ 720x900 = 0.65 ล้านพิกเซลหากคุณคลิกเพื่อ "ดูแบบเต็ม")
ดังนั้นกล้องที่มีความละเอียดสูงกว่า 0.37 Mpx ควรจะสามารถจับภาพเหล่านี้ได้ซึ่งหมายถึงสมาร์ทโฟนและเว็บแคมทุกรุ่นในตลาด

ฉันรู้เกี่ยวกับเซ็นเซอร์ของไบเออร์ แต่ผลกระทบที่เลวร้ายที่สุดของเซ็นเซอร์ไบเออร์ควรลดความละเอียดลงสี่เท่า: ถ้าคุณลดขนาดภาพลงสองเท่าในแต่ละทิศทางพิกเซลเอาต์พุตแต่ละพิกเซลจะมีข้อมูลจากเซ็นเซอร์รับข้อมูลอย่างน้อยหนึ่งรายการสำหรับแต่ละ ช่อง R / G / B
การลดขนาดโดยปัจจัย 4 ยังหมายถึงกล้องที่มีความละเอียดมากกว่า 1.5Mpx (แทนที่จะเป็น 0.37Mpx ของเอาต์พุต) ควรจะสามารถถ่ายภาพเหล่านี้ได้ เรายังคงพูดถึงสมาร์ทโฟนทุกเครื่องและเว็บแคมส่วนใหญ่ในตลาด

ฉันรู้เกี่ยวกับความลึกของสี แต่ JPG รูปแบบที่เราใช้ในการดูภาพเหล่านี้คือ 8x3 = 24 บิต และตามคะแนน DxOMarkมีกล้องหลายตัวรวมถึง Sony NEX 7 และ Nikon D3200 ที่สามารถจับภาพสีได้ 24 บิต
ดังนั้นแม้ว่าเว็บแคม $ 10 จะไม่สามารถจับความแตกต่างของภาพเหล่านี้ได้ แต่ NEX 7 หรือ D3200 ควรจะสามารถทำได้

ฉันรู้ว่าเลนส์ส่วนใหญ่มีความละเอียดต่ำกว่าเซ็นเซอร์ส่วนใหญ่ที่มีความสามารถ ตัวอย่างเช่น Nikkor 85mm f / 1.4G เป็นเลนส์ที่คมชัดที่สุดของ Nikon ตาม DxOMark และให้ความละเอียดเทียบเท่าตัวกล้องที่ดีที่สุดของความละเอียด 19Mpx ในกล้อง 24Mpx (Nikon D3X แบบเต็มเฟรม) ในขณะที่เลนส์ที่คมชัดน้อยนั้นมี เทียบเท่ากรณีที่ดีที่สุดของ 8Mpx ในกล้องเดียวกัน
แต่เลนส์ที่แย่ที่สุดในฐานข้อมูลของพวกเขายังคงให้ความละเอียดมากกว่าขนาดของรูปแบบผลลัพธ์ของตัวอย่าง

ฉันรู้เกี่ยวกับช่วงไดนามิก แต่ภาพเหล่านี้ควบคุมแสงดังนั้นพวกเขาจึงไม่ระเบิดแสงหรือเงา ตราบใดที่คุณอยู่ในตำแหน่งที่จะทำเช่นนั้นช่วงไดนามิกไม่สำคัญ มันจะถูกแมปกับช่วงเอาท์พุท 0-255 ของ JPG แต่อย่างใด
ไม่ว่าในกรณีใด DxOMark กล่าวว่ากล้องหลายตัวที่มีฟูลเฟรมหรือเซ็นเซอร์ขนาดเล็กมีช่วงไดนามิกที่ดีกว่าของกล้องฟอร์แมตกลางที่ดีที่สุด


นั่นคือสิ่งที่ฉันรู้และไม่มีอะไรในส่วนของทฤษฎีเหล่านี้ที่สามารถบอกฉันว่าเป็นไปได้อย่างไรที่จะบอกกล้องมุมมอง 8x10 จาก Sony NEX 7 เมื่อคุณดูผลลัพธ์เป็น 0.37 Mpx JPG

โดยพื้นฐานแล้วเท่าที่ฉันเข้าใจมันควรจะไม่เกี่ยวข้องกับจำนวนเมกะพิกเซลและความลึกของสีที่เซ็นเซอร์สามารถจับภาพได้ตราบใดที่มันเป็นอย่างน้อยเท่ารูปแบบเอาต์พุตสามารถเป็นตัวแทนได้

ถึงกระนั้นฉันก็ไม่สงสัยในการตัดสินคำตอบจากสแตนโรเจอร์ส และฉันไม่เคยเห็นอะไรที่คล้ายกันเลยในแง่ของการรับรู้ความคมชัดจากกล้องเซ็นเซอร์ขนาดเล็ก

ฉันเข้าใจผิดว่าการแก้ปัญหาหมายถึงอะไร?

ฉันเดาว่าฉันถามทฤษฎีเกี่ยวกับหลัก ๆ แล้ว: ความแตกต่างระหว่างความละเอียดสองวิธี (วัดเป็นพิกเซล, lp / mm, ความลึกของสีหรืออะไรก็ตาม) สามารถมองเห็นได้ในรูปแบบการแสดงผลที่มีความละเอียดน้อยกว่าต้นฉบับ

หรือเพื่อวลีมันแตกต่างกัน: ในหลักการมีอะไรบ้างที่หยุดฉันจากการจำลองภาพเหล่านี้ลงไปที่พิกเซลโดยใช้ Sony NEX 7 และมูลค่า $ 10,000 ของแสง?


2
ตราบใดที่คุณได้รับทุกสิ่งที่สมบูรณ์แบบในการถ่ายภาพของคุณไม่มีข้อได้เปรียบในการถ่ายภาพ RAW ผ่าน JPEG ความละเอียดความลึกบิตและข้อมูล RAW นั้นเกี่ยวกับการรับประโยชน์สูงสุดจากภาพถ่ายของคุณ! ภาพเว็บเล็ก ๆ วันนี้จอแสดงผลเรตินา 4x หรืองานพิมพ์คุณภาพสูงในวันพรุ่งนี้
Henrik

1
น่าเสียดายที่ฉันยอมรับได้เพียงคำตอบเดียวเท่านั้น Matt Grum สร้างข้อโต้แย้งที่น่าเชื่อถือว่าเซ็นเซอร์ขนาดเล็กพร้อมแสงและการประมวลผลเล็กน้อยสามารถทำซ้ำได้ 95% ของสิ่งที่เราเห็นในรูปภาพ Martin Schoeller ที่ขนาดเว็บ (ไม่รวมเอฟเฟกต์ DoF) ฉันคิดว่า Michael Nielsen สร้างข้อโต้แย้งที่น่าเชื่อถือว่าคุณอาจต้องดีกว่าความละเอียดของระบบ APS-C ทั่วไปถึง 100% และ Stan Rogers อธิบายว่าเราจะรู้จักกล้องรูปแบบขนาดใหญ่ได้อย่างไรแม้ในรูปถ่ายขนาดเว็บ ฉันแนะนำให้คุณอ่านพวกเขาทั้งหมด :)
jg-faustus

คำตอบ:


10

มันคือทั้งหมดที่เกี่ยวกับความคมชัดขนาดเล็ก ดูโพสต์เกี่ยวกับ aps-c กับฟูลเฟรมแล้วขยายความแตกต่างนั้นให้เป็นเซนเซอร์ขนาดกลางและขนาดใหญ่

ความแตกต่างระหว่าง APS-C และเซนเซอร์ฟูลเฟรมมีความสำคัญอย่างไรและทำไม?

ตามทฤษฎีเกี่ยวกับการสุ่มตัวอย่างสูงกว่าการสุ่มตัวอย่างในอัตราที่สูงกว่าและจากนั้นจะลดลงกว่าการสุ่มตัวอย่างที่ขีด จำกัด nyquist ตั้งแต่เริ่มต้น - นั่นคือ หากเป้าหมายสุดท้ายของคุณคือ 640x480 คุณควรใช้เซ็นเซอร์ 1280x960 มากกว่าเซ็นเซอร์ 640x480

ไม่สำคัญว่าคุณมี MPixels กี่พิกเซลเมื่อพิกเซลที่อยู่ใกล้เคียงขึ้นอยู่กับแต่ละอื่น ๆ อย่างไรก็ตามเนื่องจากวงกลมของความสับสนมีขนาดใหญ่กว่าพิกเซลของคุณบนระนาบเซ็นเซอร์ เลนส์มีความสามารถ จำกัด ในการแก้ไขเช่นกัน นอกจากนี้คุณต้องพิจารณาเลนส์ "ความคมชัด" เมื่อเทียบกับรูรับแสงและเซ็นเซอร์ขนาดใหญ่ช่วยให้คุณเข้าใกล้และแคบลง DOF หยุดทำงานซึ่งหมายความว่าคุณสามารถบันทึกรายละเอียดได้มากขึ้น - วงกลมแห่งความสับสนมีขนาดใหญ่ขึ้น การแพร่กระจายน้อยลง ฯลฯ

แล้วคุณก็มี "การบีบอัดเชิงลึก" ที่ทำโดยความยาวโฟกัสของเลนส์ที่ค่อนข้างก้าวร้าวในภาพเหล่านั้นโดยชี้ไปที่โฟโต้ FOV ในตัวเซ็นเซอร์ขนาดเล็กจะทำให้คุณถอยห่างไกลและเปิดรูรับแสงจำนวนมากเพื่อให้ได้ DOF ที่แคบ อย่างไรก็ตามการรันตัวเลขด้วยกล้องฟูลเฟรมคุณสามารถบรรลุระยะทาง 210 มม. ระยะทาง 2 เมตร F8 จะให้ 4 ซม. DOF และ FOV ที่ใช้ใบหน้าเหมือนภาพเหล่านั้น

ใส่ในอีกทางหนึ่ง: เซ็นเซอร์ขนาดใหญ่ที่สัมพันธ์กับวัตถุยิ่งเลนส์น้อยต้องทำงานกับรังสีแสงเพื่อบีบอัดมันให้เป็นจุดที่แคบ สิ่งนี้จะเพิ่มความคมชัดของภาพและไม่ว่าระยะทางในการรับชมจะเป็นเท่าไร

การอภิปรายเกี่ยวกับการปรับปรุงรายละเอียดและการเก็บรักษาอย่างต่อเนื่องผ่านการปรับขนาดที่นี่เป็นการเปรียบเทียบหากวิชาที่คล้ายกันรูปแบบขนาดใหญ่เทียบกับแบบเต็มเฟรมและรูปแบบขนาดใหญ่เมื่อเทียบกับ apsc:

บน: ใบหน้าของผู้ชายที่มีหนวดเครา ในการแก้ปัญหาบนไซต์ที่คุณเชื่อมโยงเครานั้นจะแสดงด้วยเส้นขนแบบพิกเซล แต่ทั้งหมดจะหายไปในขนาดเดียวกับตัวอย่างของแมตต์ ตอนนี้เครามีการกระจาย หากเราเห็นภาพของ Matt ในขนาดเดียวกับภาพ 8x10 ในเว็บไซต์เราอาจเห็นความแตกต่างใหญ่หากหัวไม่ได้อยู่ในโฟกัส แม้แต่ระบบ aps-c และเซ็นเซอร์ขนาดเล็กก็สามารถให้ผลลัพธ์นี้ (เกี่ยวกับรายละเอียด)

ด้านล่าง: เราเปรียบเทียบขนตาหน้าของผู้หญิงที่มีขนาดใกล้เคียงกับที่ปรากฏบนหน้าเว็บของคุณกับดวงตาที่อยู่ในโฟกัสจากกล้อง aps-c และการเหลาจะไม่ทำให้รูขุมขนกลับมาที่ผิวหนังอีก เราอาจเสริมการรับรู้ของขนตาด้วยค่ารัศมีที่สว่างรอบ ๆ

ตอนนี้เราเห็นความแตกต่างของความละเอียด"ระบบโดยรวม" ที่กว้างและกล้อง apsc + เลนส์ที่ใช้ + ที่เห็นที่ความละเอียด lowres ที่กำหนดไม่สามารถแสดงรายละเอียดเช่นเดียวกับกล้อง 8x10 + เลนส์นั้น + ความละเอียดที่ดูได้ หวังว่าจุดของฉันจะชัดเจนในขณะนี้

รายละเอียด

การเปรียบเทียบอื่นกับ aps-c, stubs เคราหลังจากเหลาพวกเขา แม้ว่า stackexchange จะปรับขนาดพวกเขาเรายังสามารถรับรู้ถึงความแตกต่างในความชัดเจน

APSC

โดยสรุปปัจจัยอื่น ๆ ที่คุณถามเกี่ยวกับเรื่องอื่นนอกเหนือจากความละเอียดพิกเซลคือ:

  • ความละเอียดของระบบทั้งหมด lp / mm
  • SNR
  • การขยายจากบุคคลไปยังเซ็นเซอร์ไปยังหน้าจอที่คุณดูตามระยะทางที่กำหนดคุณดูจากการฉายตาด้วยความละเอียดของเรตินา - การขยายที่เล็กลง (ต่ำกว่า 1: 1) ส่วนใดส่วนหนึ่งของระบบ สำหรับปัจจัยทั้งสองข้างต้นซึ่งจะได้รับอิทธิพลทางลบจากพื้นที่ฉายภาพขนาดเล็ก

คุณจะได้รับรายละเอียดเพิ่มเติมในการถ่ายภาพมาโครที่มีการลดขนาดภาพมากกว่าที่คุณทำได้โดยไม่ต้องถ่ายภาพมาโครตั้งแต่แรก

หลักฐานขั้นสุดท้ายที่มีความละเอียดก่อนที่จะทำการลดขนาดภาพด้านบน: 21MP FF ด้านล่าง: 15MP Aps-c ที่มีความยาวโฟกัสของเลนส์ / รูรับแสงเดียวกัน

ความละเอียด / ขนาดเซ็นเซอร์ diff สองตัว

ตอนนี้ rescaled เพื่อความละเอียดเท่ากัน:

เล็ก

ที่มีขนาดเล็ก

น้อยที่สุด

ขนาดเล็ก

และใช้การลับเล็กน้อยเพื่อนำรายละเอียดกลับมา คุณเห็นอะไร? รายละเอียดเพิ่มเติมเล็กน้อยจากกล้อง 21mp FF ที่ดูด้วยขนาด / ความละเอียดเดียวกันซึ่งเทียบเท่ากับกล้อง 3Mp คุณไม่สามารถนับจำนวนเส้นในภาพที่ปรับได้ แต่การรับรู้ว่าพวกเขาเป็นเส้นนั้นเป็นความจริง ไม่ว่าคุณจะต้องการสิ่งนี้หรือไม่เป็นตัวเลือกที่สร้างสรรค์ของคุณ แต่เริ่มต้นด้วยความละเอียดที่สูงขึ้น (กำหนดโดยระบบทั้งหมด) คุณจะได้รับตัวเลือก หากคุณไม่ต้องการพวกเขาคุณสามารถเบลอภาพก่อนที่จะลดขนาด

หนึ่งการทดลองขั้นสุดท้ายเพื่อแสดงความแตกต่างระหว่างเซ็นเซอร์ขนาดเล็ก, ความละเอียดต่ำและขนาดใหญ่, ความละเอียดสูง แต่ลดขนาดและความคมชัดเป็นความละเอียดเดียวกันซึ่งแสดงที่ขนาดเดียวกันในตอนท้าย - ด้วย ALL ELSE EQUAL เจ๋งใช่มั้ย ฉันทำอย่างนั้นได้อย่างไร กล้อง APS-C ของฉันฉันจำลอง "ครอบตัดเซ็นเซอร์" (เล็กกว่า apc-c ของฉัน) โดยการครอบตัดรูปภาพออกจากภาพ จากนั้นฉันก็เข้าไปใกล้วัตถุเพื่อเติมเซ็นเซอร์ขนาดใหญ่ 4x ด้วยวัตถุเดียวกัน - เช่นเดียวกับการถ่ายภาพบุคคลในเซ็นเซอร์ขนาดใหญ่นั้นเป็นภาพมาโครโดยทั่วไปยิ่งเข้าใกล้กว่าที่คุณได้รับด้วยกล้อง aps-c คุณภาพอุปกรณ์อิเล็กทรอนิกส์เดียวกันเลนส์เดียวกันการตั้งค่าเดียวกันแสงเดียวกัน

นี่คือลักษณะที่ปรากฏบนเซ็นเซอร์ขนาดเล็กลองเรียกมันว่า "mini aps-cc":

เซ็นเซอร์ขนาดเล็ก

ที่นี่เราเห็น "รูปแบบขนาดใหญ่" (ขนาดใหญ่เต็ม aps-c):

APS-C

ที่นี่เราเห็นรายละเอียดมากมายใช่ไหม แต่นั่นไม่สำคัญหลังจากที่เราลดระดับลงเป็นภาพ 0.016MP และคมชัดสำหรับความคมชัดเดียวกันโดยรวมใช่ไหม?

เปรียบเทียบขนาดเท่ากัน

แต่แน่นอนเราทำ! หากคุณยังไม่เชื่อฉันฉันยอมแพ้ :)


หมายเหตุเกี่ยวกับรูปแบบเขาวงกตที่พืชผลเหล่านี้แสดง: เป็นสิ่งประดิษฐ์การแก้ไขของไบเออร์ที่พบได้ทั่วไปสำหรับการรื้อถอนของ AHD
Michael Nielsen

อย่างไรก็ตามการรับรู้ว่ามันเป็นอาร์เรย์ของเส้นนั้นเป็นจริงมากขึ้นกับต้นฉบับมากกว่าที่จะเห็นกล่องสีเทา เช่นเดียวกับการเห็นรูขุมขนบนผิวหนังอาจไม่ใช่จำนวนที่แน่นอนเหมือนชีวิตจริง แต่พวกเขาต้องการอยู่ที่นั่น
Michael Nielsen

ขอบคุณการเปรียบเทียบที่น่าสนใจ ดูเหมือนว่าความคมชัด / รายละเอียด (หรืออย่างน้อยภาพลวงตาของรายละเอียด) จะช่วยลดอัตราการลดขนาดได้มากกว่าที่ฉันคิดไว้ คุณได้ให้บางสิ่งบางอย่างแก่ฉันที่จะต้องพิจารณา
jg-faustus

โปรดจำไว้ว่าการบรรจบเส้นเป็นฝันร้ายสำหรับอัลกอริธึมการแก้ไขและเรารู้ว่ามันควรจะเป็นอย่างไรเราไม่มีสมมติฐานแบบเดียวกันเกี่ยวกับรายละเอียดในพื้นผิวผิวที่ดีดังนั้นแม้จะมีจุดเคลื่อนที่ครึ่งพิกเซลในหน้ามัน น่ากลัว ในตัวอย่างที่เล็กที่สุดข้างต้นเรายังคงรับรู้ว่ามันมีเส้นลงไปในแนวตั้งที่สอง
Michael Nielsen

Michael คำถามที่เกี่ยวข้องจะเกิดอะไรขึ้นถ้าขนาดเซ็นเซอร์เหมือนกัน ฉันจะได้ผลลัพธ์ที่ดีขึ้นจากเซ็นเซอร์ APS-C ที่มีความละเอียดเนทีฟ 16 MP แต่ลดลงเป็น 8MP เมื่อเทียบกับการซื้อกล้อง (สมมุติ) ด้วยเซ็นเซอร์ 8MP ASP-C
Vaddadi Kartick

7

กล้องถ่ายภาพที่ให้ออกไปนั้นมีความชัดลึกไม่มากซึ่งไม่ขนานกับระนาบฟิล์ม การทำให้ริมฝีปากและดวงตาอยู่ในโฟกัสของภาพหลายภาพด้วยท่าทางของวัตถุและ DoF ที่ตื้นมาก (บ่อยเท่าที่ไม่หน้าผากบริเวณขากรรไกรในแนวกรามทันทีใต้ดวงตานั้นอ่อนนุ่ม) เป็นไปไม่ได้โดยไม่ต้องเอียง

นอกจากนี้ยังมีลักษณะของช่วงนอกโฟกัส มันเป็นเรื่องปกติของการเรนเดอร์ขนาดใกล้กว่าโฟกัสไกล ส่วนขยาย DoF ที่มีต่อกล้องนั้นเกือบเท่ากับส่วนขยายไปทางด้านหลังซึ่งเป็นสิ่งที่คุณคาดหวังเมื่อคุณเข้าใกล้การทำสำเนา 1: 1 ในระยะการทำงานปกติคุณคาดหวังว่าจะมีการกระจายของความคมชัดที่ชัดเจนหนึ่งในสาม / สองในสามรอบระนาบของโฟกัสที่คมชัด (หนึ่งในสามของ DoF ที่ด้านหน้าของระนาบโฟกัส; สองในสามด้านหลัง) ดังนั้นจึงระบุว่า "เซ็นเซอร์" มีขนาดใหญ่กว่า APS-C, ฟูลเฟรมหรือฟอร์แมตปานกลาง ประสบการณ์กับฟอร์แมท 4x5 และ 8x10 บอกฉันว่ามันน่าจะเป็น 8x10 (แม้ว่าจะเป็นหนึ่งในกล้องฟอร์แมตขนาดใหญ่ที่หายากก็ไม่ต้องสงสัยเลย) และฉันคิดว่าเลนส์ 210 มม. น่าจะเป็นมากกว่า พูด,

ดังที่ Michael Nielsen ชี้ให้เห็นมีภาพ "คมชัดขนาดเล็ก" มากมายในภาพ แต่ในระดับหนึ่งคุณสามารถปลอมภาพนั้นได้ในขั้นตอนหลังการประมวลผลโดยเฉพาะอย่างยิ่งถ้าจุดประสงค์คือการแสดงผลที่ขนาด webby และฉันคิดว่าคุณสามารถปลอม DoF และระนาบโฟกัสได้ถ้าคุณขยันในการสร้างแผนที่ความลึกด้วยระนาบการไล่ระดับสีที่ใช้กับสิ่งที่จะต้องเป็นแบบจำลอง 3 มิติของวัตถุและเข้าใจพลวัตโฟกัสของ 8x10 ที่ ประมาณ 50-60% การทำสำเนาขนาดชีวิต แต่นั่นจะเป็นหนึ่งในงานที่ต้องทำมากมาย ทางออกที่ประหยัดทั้งสำหรับช่างภาพและใครก็ตามที่วิเคราะห์ภาพจะเป็นกล้องมุมมอง 8x10 จริง


การเพิ่มไมโครคอนทราสต์ในโพสต์แนะนำสิ่งประดิษฐ์เช่นเดียวกับอัลกอริทึม "คาดเดา" รายละเอียดดังนั้นมันจะไม่เป็นภาพเดียวกัน
Michael Nielsen

@Michael แต่ในการทำสำเนาการปรับขนาดเหล่านั้นอาจเป็นไปเพื่อวัตถุประสงค์ทั้งหมดไม่ชัดเจน? หรือไม่?
ฟรานเชสโก

เป็น "ระดับ" คลุมเครือ?

คุณหมายถึงถ้าคุณเพิ่มความคมชัดก่อนจากนั้นปรับขนาดที่การเพิ่มประสิทธิภาพจะถูกลบออกนอกเสียจากว่าหน้าต่างตัวกรอง highpass มีขนาดใหญ่มากจนสามารถเปิดเสียงเรียกเข้าข้ามเฟรมได้ รายละเอียดในการถ่ายภาพบุคคลเหล่านั้นช่างเหลือเชื่อถ้าคุณตรวจสอบการครอบตัดขนาด 1x50 พิกเซลของผิวมันจะดูเหมือนภาพไบนารี่ซึ่งสามารถสร้างวงแหวนฮาโลได้อย่างง่ายดายด้วยฟิลเตอร์เหลา
Michael Nielsen

3
@MichaelNielsen เมื่อทำ downsample ขนาดใหญ่คุณสามารถแนะนำ aliasing ในภาพที่อ่อนนุ่มอย่างสมบูรณ์ (โดยไม่ต้องใช้ไมโครคอนทราสต์ใด ๆ ) และรับภาพที่คมชัดมากโดยไม่มีรัศมีหรือสิ่งประดิษฐ์อื่น ๆ ที่เหลา หากไม่ใช่เพราะระนาบโฟกัสที่เอียงคุณจะไม่สามารถบอกได้ว่าภาพเหล่านั้นเป็นรูปแบบขนาดใหญ่โดยดูจาก "รายละเอียด" ที่ชัดเจน
Matt Grum

4

ไม่กล้องความละเอียดสูงไม่สำคัญว่าเมื่อเอาต์พุตมีความละเอียดต่ำหรือไม่อย่างน้อยก็เมื่อคุณเปลี่ยนจากตัวเลขสองหลักเป็นล้านพิกเซลไปจนถึงหนึ่งในสี่ของล้านพิกเซล ถ่ายภาพต่อไปนี้:

ปรับขนาดสำหรับเว็บดูดีแม้จะมีใบหน้าของตัวแบบไม่ได้อยู่ในโฟกัส! จะเห็นได้ชัดเมื่อดูที่ 100% และชัดเจนในการพิมพ์ แต่คุณไม่สามารถบอกได้อย่างแน่นอนว่าจะถูกปรับขนาดเป็น 2% ของพิกเซลดั้งเดิมและเพิ่มความคมชัดให้กับเว็บ

นี่เป็นอีกตัวอย่างหนึ่งถ่ายภาพต้นฉบับที่นุ่มนวลขนาดใหญ่ที่ประมาณ 8 ล้านพิกเซล:

อย่างหนักลงไปเป็นความละเอียดที่เป็นมิตรกับเว็บและคมชัดและจู่ ๆ ก็มอง microcontrast ทั้งหมด!

การสุ่มตัวอย่างเกิน 2 เท่าจะช่วยในเรื่องความละเอียดและความเที่ยงตรงของสีของภาพไบเออร์ แต่ภาพจาก Canon Digital Rebel (300D) ดั้งเดิมที่วางจำหน่ายในปี 2003 ปรับขนาดเป็น 600x400 เป็นการซูมภาพแบบ 5 เท่าในแต่ละทิศทางซึ่งหมายความว่าแต่ละพิกเซลในภาพที่ปรับขนาดจะมีขนาด 25 พิกเซล คุณภาพของพิกเซล 25 ที่น้อยมากจะส่งผลต่อภาพที่ปรับขนาดแล้ว

ไมโครคอนทราสต์ที่เพิ่มขึ้นที่ระบบรูปแบบขนาดใหญ่ไม่สามารถมองเห็นได้มาโครคอนทราสต์ที่คุณเห็นสามารถสร้างขึ้นได้ด้วยการประมวลผลภายหลังเมื่อคุณมีความละเอียดมากพอที่จะมองเห็นสิ่งประดิษฐ์ที่คมชัด

หากคุณจับคู่ความชัดลึกแล้วจะเป็นการยากมากที่จะบอกความแตกต่างระหว่างกล้องดูขนาด 10x8 กับขนาดกะทัดรัดเมื่อปรับขนาดเป็นน้อยกว่า 1 ล้านพิกเซล


ฉันสามารถเห็นใบหน้าของเขามีขนาดเท่ากับภาพคนได้หรือไม่
Michael Nielsen

ใช่เมื่อฉันกลับถึงบ้านและขุดต้นฉบับ!
Matt Grum

ฉันต้องไม่เห็นด้วยกับคำสั่งทื่อ "กล้องความละเอียดสูงไม่สำคัญว่าเมื่อเอาต์พุตมีความละเอียดต่ำ" อัตราส่วนการสุ่มตัวอย่างและการขยายภาพมีความสำคัญในผลลัพธ์สุดท้าย (จนถึงขีด จำกัด ที่แน่นอน)
Michael Nielsen

1
คุณได้รับรายละเอียดที่ดีในภาพขนาดเล็กอย่างแน่นอนเพราะคุณซ้ำซ้อนหลายครั้งมากเกินไป หากคุณใช้การสุ่มตัวอย่างเพียง 2x กับความพร่ามัวจำนวนเท่ากันนั้นจะไม่ทำให้เกิดรายละเอียดของผิว และคุณใช้ยาเกินขนาดด้วยการลับผมของเขาดูแปลก ๆ นอกจากนี้ภาพนี้ดูเหมือนเป็นภาพโลว์เอนด์ทั่วไป ไม่มีอะไรที่เหมือนกับภาพที่เรากำลังพูดถึงซึ่งเก็บรายละเอียดได้มากกว่าระบบ APS-C ที่มีเลนส์คุณภาพดีที่สามารถผลิตได้
Michael Nielsen

ขอบคุณสำหรับตัวอย่างล่าสุดดูเหมือนว่าน่าจะเป็นสิ่งที่สามารถสร้างรูปภาพที่เชื่อมโยงกับคำถามด้วยเซ็นเซอร์ APS-C @MichaelNielsen แต่นั่นเป็นประเภทของการสุ่มตัวอย่างคำถามที่เกี่ยวกับเช่นการลดขนาดพูดว่ายิง APS-C 16Mpx APS-C เป็นขนาดเว็บ 1Mpx ดังนั้นในแง่ของการ oversampling, เช่น 7x (49 พิกเซลอินพุตถึง 1 px output) การ oversampling นั้นดีกว่า 5x oversampling หรือไม่? ฉันเอนตัวไปทาง "อาจจะไม่ใช่" ในตัวอย่างของคุณที่มีเส้นที่ฉันไม่สามารถมองเห็นได้ / ความแตกต่างใด ๆ เกินกว่า 4x oversampling
jg-faustus

1

เมื่อเรนเดอร์ฉากด้วยรายละเอียดที่ละเอียดลงในภาพความละเอียดต่ำจำเป็นต้องใช้การกรองพิเศษเพื่อลบเนื้อหาใด ๆ ที่มีความถี่เกินขีด จำกัด Nyquist เมื่อใช้การกรองพิเศษมีเป้าหมายที่ขัดแย้งกันสองประการ:

  1. เนื้อหาที่มีความถี่พิเศษต่ำพอที่จะแสดงควรมีการลดทอนสัญญาณให้น้อยที่สุดเท่าที่จะทำได้

  2. เนื้อหาที่มีความถี่พิเศษมีความคล้ายคลึงกันควรมีการลดทอนจำนวนเท่า ๆ กัน

หากต้องการดูว่าเป้าหมายขัดแย้งกันอย่างไรให้จินตนาการถึงฉากที่มีรูปแบบการรวมกันของเส้น หากระยะห่างค่อนข้างใกล้เคียงกับขีด จำกัด ของ Nyquist สำหรับการแก้ปัญหาเป้าหมาย แต่เส้นที่แยกออกจากกันมากพอที่จะแสดงให้เห็นอย่างชัดเจนมักจะดีกว่าที่จะแสดงให้ชัดเจนกว่าการเบลอพวกเขา อย่างไรก็ตามหากฉากนั้นมีรูปแบบของเส้นบรรจบกันซึ่งเข้าใกล้เกินกว่าที่จะแยกแยะได้การมีลายเส้นค่อย ๆ เบลอมากขึ้นเมื่อระยะห่างของพวกเขาเข้าใกล้ขีด จำกัด ของความละเอียดจะเบี่ยงเบนน้อยกว่าเส้นที่ปรากฏอย่างชัดเจนจนถึงจุดที่ เปลี่ยนเป็นสีเทาทึบ

ในหลาย ๆ กรณีการกรองที่เหมาะสมที่สุดสำหรับฉากหนึ่ง ๆ จะขึ้นอยู่กับเนื้อหาและลักษณะใดที่เป็นที่สนใจ การจับภาพฉากในความละเอียดสูงกว่ารูปแบบเอาต์พุตที่ตั้งใจจะทำให้มั่นใจได้ว่าข้อมูลทั้งหมดที่อาจต้องการในภาพสุดท้ายจะยังคงอยู่ ข้อมูลจะต้องถูกกรองออกก่อนที่จะสามารถแสดงผลภาพด้วยความละเอียดที่ต่ำกว่า แต่การจับภาพความละเอียดสูงจะทำให้สามารถปรับแต่งวิธีการกรองที่แน่นอนเพื่อให้เหมาะสมกับความต้องการของฉาก (และอาจใช้วิธีการที่แตกต่างกัน ส่วนของฉาก) หากมีความตั้งใจที่จะสร้างภาพสุดท้ายที่ 640x480 ประโยชน์ของการจับภาพที่ 6400x4800 อาจจะไม่มากไปกว่าที่ 1600x1200 จ่าย แต่อาจมีประโยชน์บางอย่างที่จะเพิ่มขึ้นประมาณ 2.5 เท่า

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.