ทำไมพื้นที่สี xvYCC ถึงไม่เห็นการใช้เพื่อถ่ายภาพนิ่ง?


23

ในช่วงสิบห้าปีที่ผ่านมา sRGB เป็นมาตรฐานหลักสำหรับจอภาพคอมพิวเตอร์ (และสำหรับการพิมพ์ระดับผู้บริโภค) ตอนนี้การเปลี่ยนแปลงกำลังเปลี่ยนไปเนื่องจากช่วงกว้างของจอภาพ LED-backlit กลายเป็นเรื่องธรรมดา โดยปกติแล้วช่างถ่ายภาพจะใช้พื้นที่สีเช่น aRGB ซึ่งเป็นแบบกึ่งมาตรฐาน - กล้องของฉันสามารถบันทึก JPEG ในพื้นที่นั้นได้เช่นกัน

แต่มีมาตรฐานใหม่ผลักดันอย่างกว้างขวางในอุตสาหกรรม AV เพื่อแทนที่ sRGB นี่คือ IEC 61966-2-4 - xvYCC (หรือ "xvColor" เพื่อจุดประสงค์ทางการตลาด) พื้นที่สีนี้มีขอบเขต 1.8 เท่าที่ใหญ่กว่า sRGB ครอบคลุม 90% ของช่วงสีของการมองเห็นของมนุษย์ (แทนที่จะเป็น 50% ที่ไม่น่าสนใจซึ่งครอบคลุมโดยตัวหารร่วมปัจจุบันของเรา) อ่านมากขึ้นที่เว็บไซต์ของโซนี่ใน xvYCC

แม้ว่าจุดสำคัญคือว่านี่ไม่ใช่เชิงทฤษฎี เป็นส่วนหนึ่งของมาตรฐาน HDMI 1.3 พร้อมกับข้อกำหนดสำหรับความลึกของสี 10 ถึง 16 บิตต่อสี (เรียกว่า "Deep Color") ซึ่งแตกต่างจาก aRGB ซึ่งโดยทั่วไปเป็นเรื่องเฉพาะของมืออาชีพมีการสนับสนุนอย่างกว้างขวางในระดับผู้บริโภค

นั่นคือพื้นหลัง คำถามคือ: เมื่อสิ่งนี้กำลังถูกจับและเราทุกคนมีคอมพิวเตอร์ (และ TV!) ฮาร์ดแวร์ที่สามารถรองรับได้ในอีกไม่กี่ปีข้างหน้าเหตุใดการขายจึงเป็นเพียงวิดีโอเท่านั้น ? ดูเหมือนว่าอุตสาหกรรมกล้องจะมีความสุขที่ได้ขึ้นเครื่อง

Sony มีความคิดที่ยิ่งใหญ่และเปิดตัวกล้องวิดีโอที่รองรับเมื่อสี่ปีที่แล้ว Playstation 3 รองรับมันเพื่อประโยชน์ของความดี! ทำไมไม่ลองใส่ Sony Alpha dSLRs ด้วยล่ะ? และ Sony ไม่ใช่คนเดียว - Canon มีกล้องวิดีโอรองรับเช่นกัน

แน่นอนถ้าคุณกำลังถ่าย RAW การสนับสนุนในตัวกล้องก็ไม่สำคัญ มันเป็นซอฟต์แวร์แปลงคนที่จะต้องขึ้นเครื่องทำไมไม่มีการผลักดันเรื่องนี้ ดังที่ฉันเข้าใจแล้ว xvYCC เป็นส่วนเสริมของ YCbCr ซึ่งใช้ในไฟล์ JPEGอยู่แล้ว แต่เมื่อฉันอ่านวรรณกรรมฉันพบว่ามีการกล่าวถึงมาตรฐาน MPEG ที่อัพเดตมากมาย แต่ไม่มีอะไรเกี่ยวกับรูปถ่ายภาพนิ่ง

ทำไมเราไม่มีสิ่งที่ดี?

คำตอบ:


11

xvYCC เป็นวิธีที่ชาญฉลาดในการเข้ารหัสข้อมูลสี: มันเป็นการละเมิดการนำเสนอ YCC โดยใช้การผสมค่าที่ไม่ได้รับอนุญาตก่อนหน้านี้เพื่อแสดงสีนอกขอบเขตของพื้นที่ RGB ที่ใช้ในโครงการ YCC นั่นคือบาง tuples YCC ถอดรหัสเป็นสีที่มีค่าลบ RG หรือ B ก่อนหน้านี้สิ่งเหล่านี้ผิดกฎหมาย ใน xvYCC สิ่งเหล่านี้ได้รับอนุญาตและแสดงด้วยขอบเขตที่ใหญ่กว่าระบบ RGB ยินดีที่จะแสดงผลเหล่านี้ให้ดีที่สุด ดังนั้นจริงๆแล้วมันเป็นแฮ็คที่เข้ากันได้ดีที่สุดที่จะได้รับช่วงเสียงพิเศษโดยไม่ต้องเปลี่ยนรูปแบบมากนัก

มันสมเหตุสมผลไหมที่จะใช้มันในการถ่ายภาพนิ่ง? ฉันไม่คิดอย่างนั้นจริงๆ ไม่จำเป็นต้องเข้ากันได้กับ YCC ดังนั้นทำไมไม่ใช้พื้นที่ช่วงกว้างเช่น ProPhoto RGB หรือดีกว่าเนื่องจากการใช้ความลึกบิตพิเศษไม่แพงสำหรับภาพนิ่งทำไมไม่ลองใช้กับ CIELAB ที่สามารถครอบคลุมขอบเขตเสียงที่มนุษย์รับรู้ได้ทั้งหมด คุณมีบิตเพียงพอที่ความสามารถในการเข้ารหัสสีในจินตนาการทั้งหมดไม่ทำให้คุณเสียค่าความละเอียดของสี

แน่นอนว่าคำถามของการสนับสนุนกล้องนั้นไม่เกี่ยวข้องเลยสักนิด - ถ้าคุณใส่ใจเรื่องสีจริงๆคุณควรดึงค่าตัวตรวจจับแบบดิบจากกล้องและเริ่มจากสิ่งเหล่านั้น และแม้ว่าคุณจะทำสิ่งนี้คุณก็จะยังคงติดอยู่ในขอบเขตของกล้อง และความแม่นยำในการแสดงสีของคุณจะขึ้นอยู่กับว่าฟิลเตอร์ของกล้องของคุณนั้นตอบสนองต่อสเปกตรัมของกรวยมนุษย์ได้ดีเพียงใด - ทำให้มันผิดและสีที่มีลักษณะเหมือนตาจะดูแตกต่างจากกล้องของคุณ ไม่มีการเข้ารหัสจะแก้ไขได้ ในความเป็นจริงสิ่งนี้เกิดขึ้นกับกล้องดิจิตอลราคาถูกตัวหนึ่งที่ฉันมีในกรณีนี้ความไว IR ของมันทำให้ถ่านดูเป็นสีม่วง แม้ว่าคุณจะเลือก IR ออกมาสิ่งที่มีสเปกตรัมแหลมคมเช่นรุ้งและแสงไฟฟลูออเรสเซนต์หรือแร่ธาตุ (และอาจมีสีย้อมบางอย่าง) กำลังแสดงผลนี้เมื่อสเปกตรัมต่อเนื่องดูโอเค


20

ในการเริ่มต้นง่ายๆคำตอบคือ "ใช้สำหรับการถ่ายภาพนิ่ง!" ฉันจะอธิบายเพิ่มเติมเล็กน้อยในขณะนี้และการใช้งานนั้นค่อนข้างเฉพาะตอนนี้

รากของ xvYCC

การเข้ารหัส xvYCC คือเท่าที่ฉันสามารถบอกได้การปรับปรุงที่ทันสมัยในการเข้ารหัส YCC หรือในรูปแบบยาว Y'CbCr (หรือ YCbCr ซึ่งแตกต่างกันเล็กน้อย) การเข้ารหัส YCC เป็นส่วนหนึ่งของตระกูลความส่องสว่าง / Chrominance ช่องว่างสีซึ่งส่วนใหญ่ฝังอยู่ในพื้นที่สี L a b * ('Lab' สำหรับระยะสั้น) ที่ CIE สร้างขึ้นในช่วงทศวรรษที่ 1930 พื้นที่สี Lab ยังเป็นพื้นที่สีสว่าง / Chrominance ประเด็นความสว่างของสีที่มีการเข้ารหัสในL *ค่าในขณะที่สองแกน chrominance ของสีจะถูกเข้ารหัสในA *และb *ค่า ค่า a * เข้ารหัสครึ่งหนึ่งของ chrominance ตามแกนสีเขียว / ม่วงแดงในขณะที่ค่า b * จะเข้ารหัสอีกครึ่งหนึ่งของ chrominance ตามสีน้ำเงิน / เหลืองแกน. แกนสีทั้งสองนี้ได้รับเลือกให้เลียนแบบและเป็นตัวแทนของความไวแสงสีหลักของดวงตามนุษย์ซึ่งอยู่ตามแกนคู่สีแดง / เขียวและน้ำเงิน / เหลือง (แม้ว่าสายตาที่แท้จริงของมนุษย์เกี่ยวข้องกับเส้นโค้งสีแดงคู่ยอดสูงสุด จุดสูงสุดเล็ก ๆ ที่เกิดขึ้นในช่วงกลางของเส้นโค้งสีน้ำเงินซึ่งจริงๆแล้วหมายถึงดวงตาของมนุษย์นั้นไวต่อสีม่วงแดงไม่ใช่สีแดง ... ดังนั้นแกนสีเขียว / สีม่วงแดงในแล็บ)

การเข้ารหัส YUV

Y'CbCr น่าจะเป็นที่รู้จักมากที่สุดในรูปแบบของการเข้ารหัสวิดีโอ YUV การเข้ารหัส YUV ได้รับการออกแบบมาโดยเฉพาะเพื่อลดจำนวนพื้นที่ที่จำเป็นในการเข้ารหัสสีสำหรับการส่งวิดีโอย้อนกลับไปในสมัยที่แบนด์วิดธ์เป็นสินค้าที่ค่อนข้างหายาก การส่งข้อมูลสีในขณะที่ RGB triplets นั้นสิ้นเปลืองเนื่องจาก R, G, B triplets เข้ารหัสสีด้วยความซ้ำซ้อนจำนวนมาก: ส่วนประกอบทั้งสามประกอบด้วยข้อมูลความส่องสว่างและข้อมูล chrominance และความสว่างจะถูกถ่วงน้ำหนักในส่วนประกอบทั้งสาม YUV เป็นรูปแบบแบนด์วิธต่ำของการเข้ารหัสสี Y'CbCr luminance / chrominance ที่ไม่มีความซ้ำซ้อนของการเข้ารหัส RGB ที่สิ้นเปลือง YUV สามารถใช้งานได้ทุกที่ตั้งแต่ 2/3 ถึง 1/4 ของแบนด์วิดท์ของสัญญาณ RGB เต็มรูปแบบขึ้นอยู่กับรูปแบบการสุ่มตัวอย่าง (และนอกจากนี้มันยังเก็บภาพรายละเอียดแบบเต็มในช่องส่องสว่างที่แตกต่างกัน Y ซึ่งรองรับทั้ง B&W เช่นกัน ในฐานะที่เป็นสัญญาณโทรทัศน์สีที่มีรูปแบบการเข้ารหัสเดียว) ควรสังเกตอย่างชัดเจนว่า YCC ไม่ใช่พื้นที่สีจริงๆ ค่อนข้างเป็นวิธีการเข้ารหัสข้อมูลสี RGB ฉันคิดว่าคำที่ถูกต้องมากกว่านี้คือรูปแบบสีมากกว่าพื้นที่สีและรูปแบบสีของคำสามารถนำไปใช้กับทั้ง RGB และ YUV

จากการอ้างอิงที่เชื่อมโยงในคำถามเดิมปรากฏว่า xvYCC เป็นรูปแบบการปรับปรุงของการเข้ารหัส Y'CbCr ที่เก็บข้อมูลสีความสว่าง / สีโครเมี่ยมที่เข้ารหัสด้วยบิตมากกว่า YUV แทนที่จะเข้ารหัสความสว่างและ chrominance ในชุด interleaved จำนวน 2-4 บิต xvYCC เข้ารหัสสีในค่า 10 บิตที่ทันสมัย

ใช้ในการถ่ายภาพนิ่ง

น่าสนใจพอมีกล้องยี่ห้อ DSLR หนึ่งยี่ห้อที่ใช้สิ่งที่คล้ายกันมาก Canon ได้เพิ่มรูปแบบ RAW ใหม่ให้กับกล้องในช่วงไม่กี่ปีที่ผ่านมาซึ่งเรียกว่า sRAW ในขณะที่ภาพ RAW ปกติมีการถ่ายโอนข้อมูลโดยตรงของไบเออร์เซ็นเซอร์เต็มรูปแบบ sRAW ไม่ใช่รูปแบบภาพ RAW จริง รูปแบบ sRAW ไม่มีข้อมูลไบเออร์มันมีเนื้อหา Y'CbCr ที่ประมวลผลสอดแทรกจากข้อมูลพิกเซล RGBG bayer พื้นฐาน คล้ายกับวันทีวี sRAW มีจุดมุ่งหมายที่จะใช้ข้อมูลสัญญาณดั้งเดิมมากขึ้นเพื่อเข้ารหัสข้อมูลความสว่างและ chrominance ในความแม่นยำสูง (14-bpc) แต่เป็นการประหยัดพื้นที่และรูปแบบภาพ รูปภาพ sRAW สามารถอยู่ที่ใดก็ได้ขนาด 40-60% ของภาพ RAW

ประโยชน์ของ sRAW คือคุณรักษาความถูกต้องของสีที่มนุษย์รับรู้ไว้สูงในรูปแบบไฟล์ขนาดกะทัดรัดและใช้พิกเซล RGBG ที่ดีขึ้นบนเซ็นเซอร์ไบเออร์ (แทนที่จะใช้การสุ่มซ้อนทับที่ทำให้เกิดคลื่นมัวสี sRAW ทำการสุ่มโครอิน และการสุ่มตัวอย่างความส่องสว่างที่ทับซ้อนกัน / กระจาย) ข้อเสียเปรียบคือไม่ใช่รูปแบบ RAW ที่แท้จริงและข้อมูลสีจะถูกแก้ไขและสุ่มตัวอย่างจากเซ็นเซอร์ไบเออร์แบบเต็ม หากคุณไม่ต้องการความละเอียด RAW เต็มรูปแบบของกล้อง (เช่นคุณตั้งใจที่จะพิมพ์ที่ 8x10 หรือ 11x16) ดังนั้น sRAW จะเป็นประโยชน์อย่างแท้จริงเนื่องจากสามารถประหยัดพื้นที่ได้มาก (ประหยัดได้มากกว่า RAW ถึง 60% ) มันประหยัดเร็วกว่าแบบดิบที่ให้อัตราเฟรมที่สูงกว่าและใช้ประโยชน์จากข้อมูลสีที่เซ็นเซอร์จับได้ดีกว่า RAW ความละเอียดเต็ม


น่าสนใจมากและให้ข้อมูล - ขอบคุณ! แต่ฉันก็ยังประหลาดใจที่การใช้ซอกนี้เป็นเพียงสิ่งเดียวจนถึงตอนนี้
mattdm

1
ฉันเดาว่าโดยทางเทคนิคแล้วคุณอาจพิจารณาว่า JPEG เป็นรูปแบบภาพอื่นที่เข้ารหัสข้อมูลในรูปแบบที่รองรับ YCC ส่วนหนึ่งของการประหยัดพื้นที่ JPEG นั้นเกิดจากความจริงที่ว่ามันเข้ารหัสข้อมูล RGB ในรูปแบบความส่องสว่าง / chrominance ซึ่งข้อมูลจะถูกบีบอัดเพิ่มเติมผ่านการบีบอัดบล็อกแบบ lossy ในขณะที่การเข้ารหัสเฉพาะ xvYCC นั้นไม่ใช่เรื่องธรรมดาในการถ่ายภาพนิ่งเมื่อคุณคิดถึงการเข้ารหัสความสว่าง / Chrominance นั้นเป็นรูปแบบที่แพร่หลายที่สุด
jrista

7

คุณมีสิ่งต่าง ๆ เกือบด้านหลัง นี่ไม่ใช่กรณีที่การถ่ายภาพนิ่งยัง / ควร "ทัน" กับวิดีโอ - ในทางกลับกันนี่เป็นเรื่องของวิดีโอที่ในที่สุดความสามารถของ TIFF (ตัวอย่างเช่น) จะเพิ่มขึ้นสองสามทศวรรษ ที่ผ่านมา (หรือมากกว่านั้น)

ในขณะที่คุณไม่ได้เห็น 16 บิต / ช่อง TIFF มากเมื่อ 20 ปีที่แล้วความสามารถนั้นมีอยู่แล้วและ 16 บิต / ช่อง (ในรูปแบบ TIFF และรูปแบบอื่น ๆ ) เป็นเรื่องธรรมดา ในเวลาเดียวกันฉันรู้สึกว่าจำเป็นต้องชี้ให้เห็นว่าคนส่วนใหญ่ดูเหมือนจะพบ 8 บิต / ช่องเพียงพอทั้งหมด JPEG2000 รองรับ 16 บิต / ช่องและมีการบีบอัดที่ดีกว่า JPEG ดั้งเดิม แต่ก็ไม่มีอะไรใกล้เคียงกับการใช้ข้อมูลจำเพาะ JPEG ดั้งเดิม

ในช่วงเวลาเดียวกัน (อันที่จริงก่อนหน้านี้) xvYCC กำลังทำงาน (โดยประมาณ) ตามความสามารถของ TIFF รูปแบบไฟล์ openEXR ได้รับการพัฒนา รองรับสูงสุด 32 บิต / ช่อง แม้ว่ามันจะไม่ได้ใช้งานอย่างกว้างขวาง แต่ฉันคาดว่ามันจะเป็นแบบ TIFF และจะมีการใช้งานที่กว้างขึ้นในที่สุด

เท่าที่พื้นที่สีดำเนินไปเป็นความจริงที่ว่าจำนวนบิต / พิกเซลที่มากขึ้นหาก xvYCC รองรับช่วงเสียงที่ใหญ่กว่า sRGB อย่างไรก็ตามอีกครั้ง ProPhotoRGB (ตัวอย่างหนึ่ง) ให้ขอบเขตที่กว้างกว่า - และ (โดยความซื่อสัตย์) มันเปิดให้กับคำถามว่ามีความต้องการพื้นที่สีที่ใหญ่กว่า ProPhotoRGB หรือไม่ (ประมาณ 13% ของสีที่คุณสามารถทำได้) การเป็นตัวแทนใน ProPhotoRGB นั้นเป็นเพียงจินตนาการ - มันเหนือกว่าสิ่งที่คนส่วนใหญ่รับรู้)

ข้อได้เปรียบของ xvYCC คือการลดปริมาณข้อมูลที่จำเป็น / ใช้เพื่อแสดงถึงระดับคุณภาพที่กำหนด สำหรับวิดีโอ HD (โดยเฉพาะ) การลดแบนด์วิดท์เป็นสิ่งสำคัญอย่างยิ่ง สำหรับกล้องถ่ายภาพนิ่งดิจิตอลอย่างไรก็ตามแบนด์วิดท์เป็นปัญหาที่เล็กกว่ามาก - ในขณะที่มันจะดีถ้า (เช่น) ฉันสามารถใส่รูปภาพได้มากเป็นสองเท่าในการ์ด CF ขนาดใดขนาดหนึ่งมันไม่ใช่ปัญหาร้ายแรงโดยเฉพาะ มีคนไม่กี่คนที่ใช้การ์ด CF ที่มีความจุมากที่สุดและไม่มีค่าใช้จ่ายของการ์ด CF ซึ่งเป็นส่วนสำคัญของงบประมาณช่างภาพทั่วไป

บรรทัดล่าง: ในแง่ของความสามารถด้านเทคนิค xvYCC ให้บริการเล็กน้อยที่ยังไม่พร้อม

แก้ไข: ฉันน่าจะเพิ่มอีกหนึ่งจุด LCDs เริ่มแทนที่ CRT สำหรับจอภาพส่วนใหญ่เกี่ยวกับเวลาที่กล้องดิจิตอลเข้ามาใช้อย่างกว้างขวาง - แต่จอภาพ LCD ระดับผู้บริโภคเริ่มมีความละเอียดสูงเกิน 8 บิต / ช่องสัญญาณสี มันยากที่จะกังวลมากเกี่ยวกับการมี 10 หรือ 12 บิต / ช่องเมื่อจอภาพทั่วไปสามารถแสดงประมาณ 6 เท่านั้น

นอกจากนี้ยังมีรายละเอียดเล็กน้อยที่ผู้คนจำนวนมากไม่สนใจ สำหรับพวกเขาคุณภาพการถ่ายภาพตกอยู่ภายใต้เกณฑ์ผ่าน / ไม่ผ่าน ทุกคนส่วนใหญ่ขอจริงๆคือภาพที่เป็นที่รู้จักพอสมควร ฉันสงสัยว่าคนเริ่มช้าคาดว่าจะดีขึ้น แต่หลังจาก Walgreens (หรือคนใดคนหนึ่ง) เปลี่ยนลูกสาวหัวแดงของพวกเขาเป็นสีบลอนด์ (ฯลฯ ) ใช้เวลาสักครู่เพื่อทำความคุ้นเคยกับความคิดที่ว่าสีสามารถถูกต้องได้เลย

แก้ไข: มีจริงขั้นตอนอื่นเกินกว่า JPEG 2000: JPEG XR รองรับ HDR ได้สูงสุด 32 บิต / ช่อง (จุดลอยตัว) นอกจากนี้ยังระบุรูปแบบไฟล์ที่สามารถรวมข้อมูลประเภท EXIF ​​/ IPTC ปกติโปรไฟล์สีแบบฝัง ฯลฯ ที่เกี่ยวข้องกับคำถามที่นี่ซึ่งมีค่าที่ระบุว่าไฟล์ควรใช้พื้นที่สี xvYCC (ค่าของ11ในTRANSFER_CHARACTERISTICSองค์ประกอบไวยากรณ์ตาราง A.9 ในกรณีที่ใครสนใจ) สิ่งนี้ดูเหมือนจะไม่ได้ใช้งานอย่างกว้างขวาง (อย่างน้อย) แต่สนับสนุนพื้นที่สี xvYCC โดยตรงสำหรับภาพนิ่ง


ขอบคุณ; นั่นเป็นวิธีหนึ่งในการดูอย่างแน่นอน ฉันรู้ว่ารูปแบบไฟล์เหล่านั้นและช่องว่างสีที่กว้างขึ้นมีอยู่ ผมคิดว่าสิ่งที่ผมสนใจจริงๆคือเหตุผลที่มีการผลักดันความลึกของสีมากขึ้นในโลก A / V แต่ไม่ได้อยู่ในการถ่ายภาพในระดับของผู้บริโภค
mattdm

1
@mattdm: ฉันคิดว่าเหตุผลที่มีการผลักดันเพราะมันไม่เคยมีมาก่อน Wide-gamut / ความลึกของสีสูงสำหรับการถ่ายภาพนิ่งอย่างน้อยหนึ่งทศวรรษและเท่าที่ฉันรู้ว่ากล้องดิจิตอลรองรับ Adobe RGB (ซึ่งมีขอบเขตที่กว้างกว่า sRGB ถึงแม้ว่ามันจะไม่สนับสนุน 98% ของ ช่วงของ Lab) เป็นเวลาหลายปี sRAW ของ Canon มีวางจำหน่ายแล้วในระดับกลางและระดับ DSLR เป็นเวลาอย่างน้อยสองปี ฉันเห็นด้วยกับ Jerry ... วิดีโอคือโดเมนที่ "ทัน"
jrista

4

ดังนั้นเพื่อตอบคำถามของฉันเล็กน้อยหลังจากการวิจัย:

ขณะที่มันไม่ xvYCC สำหรับเหตุผลที่จริงยังคงหลบหนีฉัน (ตั้งแต่การเข้ารหัส JPEG ใช้รูปแบบเก่าที่คล้ายกัน) มีไม่ปรากฏว่าจะมีบางการเคลื่อนไหวให้กำลังใจที่ "เราสามารถมีสิ่งที่ดี!" ด้านหน้าเนื่องจากปรากฏว่าอย่างน้อยMicrosoftก็ให้ความสำคัญกับโทนสีที่กว้างขึ้นและความลึกของบิตที่ดีขึ้นในการถ่ายภาพนิ่ง - อย่างน้อยก็สักนิด

พวกเขาได้รับช้า แต่แน่นอนผลักดันมาตรฐานรูปแบบไฟล์ใหม่ที่เรียกว่าJPEG XR (เดิมเรียกว่า Windows Media Photo และ HD Photo) มันเป็นความก้าวหน้าที่น่าสนใจจาก JPEG "ดั้งเดิม" ที่นำเสนอการบีบอัดที่ดีกว่าที่คุณภาพของภาพเดียวกันและ (จนถึงตอนนี้การสนทนา) สนับสนุนความลึกบิตที่สูงขึ้น

JPEG 2000 ก็ทำเช่นนี้ แต่ส่วนใหญ่เป็นความล้มเหลวอาจเป็นเพราะความกังวลเกี่ยวกับสิทธิบัตรที่ครอบคลุมการบีบอัดเวฟเล็ตที่ใช้หรืออาจเป็นอย่างอื่น จุดสำคัญคือ: ไมโครซอฟท์คือการส่งเสริม JPEG XR ตอนนี้เนื้อเรื่องมันในจำนวนมากของซอฟต์แวร์ของพวกเขารวมทั้งInternet Explorer 9 ในปี 2009 เป็นมาตรฐานสากลอย่างเป็นทางการอย่างแท้จริงและได้รับการคุ้มครองโดย "สัญญาชุมชน" ของ Microsoft เพื่อไม่บังคับใช้สิทธิบัตรของพวกเขาในทางที่ไม่เป็นมิตรกับการใช้งาน นั่นเป็นสิ่งที่ดีสำหรับการบริโภคในอนาคต

และพร้อมกับพวกเขากำลังผลักดันแนวคิดของบิตต่อช่องเป็น " high color " (ซึ่งเป็นเรื่องตลกสำหรับฉันเนื่องจากในใจของฉันยังคงเป็น 16 บิตแบบเดิมสำหรับช่องทั้งหมดโหมดการ์ดแสดงผล) ในส่วนนี้พวกเขามีพื้นที่สี "กลาง" ขนาดใหญ่ที่น่าขันที่เรียกว่า scRGB อ่านรายละเอียดบัญชีของมันที่นี่ซึ่งรองรับโดย JPEG XR หากคุณต้องการ มันอาจจะไม่เป็นประโยชน์โดยเฉพาะอย่างยิ่งเป็นครั้งสุดท้าย colorspace เนื่องจากส่วนใหญ่ของสีที่มีอยู่ใน "จินตนาการ" บริเวณด้านนอกของการรับรู้ของมนุษย์ แต่ประเด็นก็คือไมโครซอฟท์กำลังรวมมาตรฐานความลึกที่สูงกว่าเข้ากับระบบปฏิบัติการ Windows และการถ่ายภาพนิ่งก็เป็นเช่นนั้นส่วนหนึ่งของที่ จากการสัมภาษณ์ CNET ที่ค่อนข้างเก่าตอนนี้: "ฉันคาดหวังว่าการรองรับ scRGB ในกล้องจะมาพร้อมกับ JPEG XR"

แต่นั่นก็คือในปี 2007 สี่ปีครึ่งต่อมาเรายังไม่เห็นกล้องที่รองรับ JPEG XR นับเป็นพื้นที่สีความลึกสูงในระดับกว้าง แต่บางทีฉันแค่ใจร้อน ในฐานะที่เป็นคำตอบอื่น ๆ ที่นี่โน้ตฮาร์ดแวร์การแสดงผลที่รองรับขอบเขตกว้างเป็นเพียงกลายเป็นใช้ได้สนับสนุนใน OS ยอดนิยมมากที่สุดในโลกสวยที่ผ่านมาและเว็บเบราเซอร์แรกที่สนับสนุนได้รับการปล่อยตัวในเดือนนี้ ตามที่จับได้และหวังว่าในที่สุดChromeและFirefoxจะได้รับโปรแกรมการประมวลผลภาพ (รวมถึงตัวแปลง RAW) ในที่สุดจะได้รับการสนับสนุนและผลผลิตโดยตรงจากกล้องจริงจะตามมา

หรือสิ่งทั้งหมดจะล้มเหลว เวลาจะบอกเอง. :)


2
คุณสมบัติที่ดีของ JPEG XR ก็คือมันมีราคาถูกในการคำนวณดังนั้นจึงเป็นไปได้ที่จะนำไปใช้สำหรับการเข้ารหัสในกล้อง JPEG 2000 มีราคาแพง นี่เป็นปัจจัยอย่างหนึ่งแม้ว่าอาจจะมีการคำนวณกำลังการเดินหน้าต่อไปไม่ใช่สิ่งสำคัญ
PeterT

3

ฉันจะเพิ่มบันทึกย่อรอบ ๆ จอน ...

  1. พื้นที่สีมีความหมายในบริบทของกล้องเมื่อพูดถึง JPEG เท่านั้นสำหรับภาพดิบพื้นที่สีเป็นตัวเลือกในเฟส "พัฒนา" กล้องบางตัว (Pentax semi-pros สำหรับบางคน) อนุญาตให้เลือก sRGB หรือ aRGB สำหรับการพัฒนา JPEG ดังนั้นบางทีพวกเขาอาจเพิ่มหนึ่งในสาม (หรือสี่สำหรับ ProPhoto) จากนั้นอีกครั้งสำหรับมืออาชีพส่วนใหญ่พวกเขาจะดึงภาพในพื้นที่สีที่ต้องการสำหรับสื่อที่ต้องการ

  2. วิวเวอร์ (และ / หรืออุปกรณ์) จะต้องรับรู้ถึงพื้นที่สีและสามารถจัดการได้ ในขณะที่จอมอนิเตอร์ที่มีโทนเสียงกว้างกำลังกลายเป็นเรื่องธรรมดามากขึ้น Heck ฉันรู้ไม่กี่คนที่ยังคงมีจอภาพ CRT รุ่นเก่าเชื่อมต่อกับคอมพิวเตอร์ที่เหมาะสม


ฉันต้องการเน้นจุดอีกครั้งว่า xvYCC ไม่ใช่ 'พื้นที่สี' มันเป็นรูปแบบการเข้ารหัสที่ดีที่สุดสำหรับข้อมูลสี RGB มันรองรับขอบเขตที่กว้างกว่าไม่ใช่เพราะเป็นพื้นที่สี แต่เป็นเพราะมันเก็บข้อมูลสีโดยใช้บิตของข้อมูลมากขึ้นและเก็บไว้ในรูปแบบที่ใกล้เคียงกับวิธีที่มนุษย์รับรู้ความสว่างและสี
jrista

@ jrista มาตรฐาน IEC เรียกมันว่า "ขอบเขตสี YCC แบบขยายช่วงเสียงสำหรับแอปพลิเคชันวิดีโอ - xvYCC" ซึ่งมีความหมายอย่างยิ่งว่าในความเป็นจริงแล้วเป็นพื้นที่สี เมื่ออ่านบน YCC ฉันเห็นว่าคุณมาจากที่นี่และไม่ต้องการจ่ายเงินหนึ่งร้อยเหรียญเพื่ออ่านมาตรฐานที่ฉันไม่แน่ใจ แต่สมมติฐานปัจจุบันของฉันคือระบุทั้งวิธีการระบุ ข้อมูลสีใน YCC และพื้นที่สี RGB ที่กว้างขึ้นจริง
mattdm

1
ฉันจะต้องอ่านให้ลึกลงไปในสเปค ฉันยังไม่แน่ใจว่า xv หมายถึงอะไรดังนั้นบางทีนั่นอาจหมายถึงพื้นที่สีกว้าง ๆ YCC แม้ว่าถึงแม้ว่าพวกเขาใช้บิตมากขึ้นเป็นส่วนใหญ่ไม่แน่นอน "ช่วง" encodingเพียงของ มันเหมือนกับว่า RGB เป็นพื้นที่สี ... ไม่ใช่ของมันเป็นเพียงวิธีในการเข้ารหัสข้อมูลสี A color spaceกำหนดความสว่างและค่า chrominance ของแต่ละสีผ่านชุดของการจับคู่สีหลักแป้นแกมมาจุดสีขาวและดำและเส้นโค้งบางส่วน
jrista

1
ฉันเดาว่า "xv" คือ "ค่าเพิ่มเติม" แต่มันอาจหมายถึง "soudns cool"
mattdm

1

พื้นที่สี xvYCC อาจไม่เห็นการใช้ถ่ายภาพนิ่งเพราะมาตรฐานใหม่ได้รับการพัฒนาซึ่งเป็นการปรับปรุงมาตรฐานเก่าและไม่มีผู้ผลิตรายใดที่ต้องการลงทุนในมาตรฐานที่อาจอ่อนค่าลงก่อนที่มันจะถูกแทนที่ด้วย 'สิ่งที่ยิ่งใหญ่ที่สุดต่อไป ' พวกเขาเรียนรู้จาก VHS กับเบต้า

รูปแบบภาพประสิทธิภาพสูง (HEIF), MPEG-H ตอนที่ 12 เป็นรูปแบบไฟล์ที่ระบุรูปแบบโครงสร้างซึ่งสามารถใช้รูปแบบภาพเฉพาะตัวแปลงสัญญาณได้

HEIF ยังมีข้อกำหนดสำหรับการห่อหุ้มรูปภาพและลำดับภาพที่สอดคล้องกับการเข้ารหัสวิดีโอประสิทธิภาพสูง (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 หรือ MPEG-H ตอนที่ 2)

มันถูกกล่าวถึงในแอปเปิ้ล WWDC 2017 Keynote วิดีโอ: https://youtu.be/oaqHdULqet0?t=58m49s

Apple iPhone 7 และใหม่กว่าจะถ่ายภาพและบันทึกในรูปแบบ JPEG หรือ HEIF การใช้ HEIF สามารถมอบกล้องที่เก่าแก่ให้กับโซลูชั่น Storage to Display ซึ่งเป็นโครงสร้างพื้นฐานที่สมบูรณ์แบบโดยไม่สูญเสียหรือแปลงจากอินพุตเป็นเอาต์พุต

ไม่ใช่ว่าพวกเขาสนับสนุนคุณสมบัติทุกอย่างเต็มที่ (มากเท่าที่ MPEG ไม่ค่อย "รองรับอย่างเต็มที่") หรือไม่ง่ายพอสำหรับคนอื่นที่จะทำมันเป็นเพียงว่าพวกเขาดูเหมือนจะเป็นคนแรกที่มีโซลูชันที่สมบูรณ์สำหรับรูปภาพ (สำหรับวิดีโอ เรามีชุดย่อยของ HEVC H.264, H.265 และเมื่อไม่นานมานี้ของ HikVision H.265 + เป็นเวลาหลายปี)

หากคุณรู้จักกล้องอื่น ๆ ที่สนับสนุน HEIF โปรดแสดงความคิดเห็นหรือแก้ไขขอบคุณ

กล้องที่บันทึกภาพและวิดีโอในช่วงไดนามิกสูงโดยเฉพาะ (เซ็นเซอร์มีมากกว่า 16 บิตต่อสี) มักจะไม่ประมวลผลข้อมูล (สร้างไฟล์บีบอัด) แต่ส่งออกข้อมูลดิบโดยตรงเช่นhttp: // www .jai.com / en / ผลิตภัณฑ์ / at-200ge - ที่กล้องจะส่ง 24 ถึง 30 บิตต่อพิกเซลหรือhttp://www.jai.com/en/products/at-140cl - กล้องนั้นจะออก 24 ถึง 36 บิตต่อพิกเซล .

เป็นไปได้ที่จะได้รับกล้องสี CIE 1931 (และ Color Spaces อื่น ๆ ) หากคุณค้นหาอย่างไม่มีที่สิ้นสุดหรือยินดีจ่ายผู้จำหน่ายกล้องพิเศษเพื่อทำสิ่งที่คุณต้องการอย่างแน่นอนคุณอาจต้องเขียนซอฟต์แวร์ของคุณเอง แปลงจาก Color Space ของคุณเป็นหนึ่งที่ใช้โดยโปรแกรมอื่น

นี่คือเชื่อมโยงไปยัง Condor3 CIE 1931 กล้อง Quest นวัตกรรม: http://www.quest-innovations.com/cameras/C3-CIE-285-USB

กล้องที่มีเซ็นเซอร์ 3,4,5 หรือ 6 ตัวสามารถแยกสเปกตรัมเป็นชิ้นเล็ก ๆ และให้ Bits ต่อช่องสัญญาณมากขึ้นแก้ไขสีและความเข้มที่แน่นอนได้แม่นยำยิ่งขึ้น: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .


ปริซึมสำหรับกล้อง 3 แชนแนล 3CCD หรือ 3MOS

ปริซึมสำหรับกล้อง 4 Channel 4CCD หรือ 4MOS

ปริซึมสำหรับกล้อง 5 Channel 5CCD หรือ 5MOS


อ้างอิง:

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.