ในช่วงสิบห้าปีที่ผ่านมา sRGB เป็นมาตรฐานหลักสำหรับจอภาพคอมพิวเตอร์ (และสำหรับการพิมพ์ระดับผู้บริโภค) ตอนนี้การเปลี่ยนแปลงกำลังเปลี่ยนไปเนื่องจากช่วงกว้างของจอภาพ LED-backlit กลายเป็นเรื่องธรรมดา โดยปกติแล้วช่างถ่ายภาพจะใช้พื้นที่สีเช่น aRGB ซึ่งเป็นแบบกึ่งมาตรฐาน - กล้องของฉันสามารถบันทึก JPEG ในพื้นที่นั้นได้เช่นกัน
แต่มีมาตรฐานใหม่ผลักดันอย่างกว้างขวางในอุตสาหกรรม AV เพื่อแทนที่ sRGB นี่คือ IEC 61966-2-4 - xvYCC (หรือ "xvColor" เพื่อจุดประสงค์ทางการตลาด) พื้นที่สีนี้มีขอบเขต 1.8 เท่าที่ใหญ่กว่า sRGB ครอบคลุม 90% ของช่วงสีของการมองเห็นของมนุษย์ (แทนที่จะเป็น 50% ที่ไม่น่าสนใจซึ่งครอบคลุมโดยตัวหารร่วมปัจจุบันของเรา) อ่านมากขึ้นที่เว็บไซต์ของโซนี่ใน xvYCC
แม้ว่าจุดสำคัญคือว่านี่ไม่ใช่เชิงทฤษฎี เป็นส่วนหนึ่งของมาตรฐาน HDMI 1.3 พร้อมกับข้อกำหนดสำหรับความลึกของสี 10 ถึง 16 บิตต่อสี (เรียกว่า "Deep Color") ซึ่งแตกต่างจาก aRGB ซึ่งโดยทั่วไปเป็นเรื่องเฉพาะของมืออาชีพมีการสนับสนุนอย่างกว้างขวางในระดับผู้บริโภค
นั่นคือพื้นหลัง คำถามคือ: เมื่อสิ่งนี้กำลังถูกจับและเราทุกคนมีคอมพิวเตอร์ (และ TV!) ฮาร์ดแวร์ที่สามารถรองรับได้ในอีกไม่กี่ปีข้างหน้าเหตุใดการขายจึงเป็นเพียงวิดีโอเท่านั้น ? ดูเหมือนว่าอุตสาหกรรมกล้องจะมีความสุขที่ได้ขึ้นเครื่อง
Sony มีความคิดที่ยิ่งใหญ่และเปิดตัวกล้องวิดีโอที่รองรับเมื่อสี่ปีที่แล้ว Playstation 3 รองรับมันเพื่อประโยชน์ของความดี! ทำไมไม่ลองใส่ Sony Alpha dSLRs ด้วยล่ะ? และ Sony ไม่ใช่คนเดียว - Canon มีกล้องวิดีโอรองรับเช่นกัน
แน่นอนถ้าคุณกำลังถ่าย RAW การสนับสนุนในตัวกล้องก็ไม่สำคัญ มันเป็นซอฟต์แวร์แปลงคนที่จะต้องขึ้นเครื่องทำไมไม่มีการผลักดันเรื่องนี้ ดังที่ฉันเข้าใจแล้ว xvYCC เป็นส่วนเสริมของ YCbCr ซึ่งใช้ในไฟล์ JPEGอยู่แล้ว แต่เมื่อฉันอ่านวรรณกรรมฉันพบว่ามีการกล่าวถึงมาตรฐาน MPEG ที่อัพเดตมากมาย แต่ไม่มีอะไรเกี่ยวกับรูปถ่ายภาพนิ่ง
ทำไมเราไม่มีสิ่งที่ดี?