จะเกิดอะไรขึ้นถ้ากล้องใช้สีหลักต่างกันโดยสิ้นเชิง
อย่างที่หลายคนรู้ว่ามนุษย์มีเซลล์รูปกรวยสามเซลล์ทำให้เราสามารถเห็นสี "หลัก" สามสีที่แตกต่างกันซึ่งอาจรวมกันเพื่อสร้างสเปกตรัมทั้งหมดที่เราสามารถมองเห็นได้ ในขณะเดียวกันสัตว์อื่น ๆ จำนวนมากมีเซลล์รูปกรวยตั้งแต่สี่เซลล์ขึ้นไปทำให้พวกมันเห็นสเปกตรัมที่กว้างขึ้นหรือมีความชัดเจนมากขึ้น ตอนนี้กล้องดิจิตอลมักจะบันทึกแสงโดยใช้อาร์เรย์ที่มีความไวแสง "พิกเซล" โดยทั่วไปพิกเซลจะถูกจัดเรียงเป็นกลุ่มที่สี่โดยมีสองแบบพิเศษ (ใช้วัสดุการกรอง) สำหรับสีเขียวหนึ่งสำหรับสีแดงและหนึ่งสำหรับสีน้ำเงิน ความเข้มที่ตรวจพบโดยแต่ละพิกเซลแล้วแปลงเป็นไฟล์ RGB โดยใช้อัลกอริทึม ความเข้มที่บันทึกโดยแต่ละพิกเซลพิเศษสามารถแมปกับสเปกตรัมสีด้านล่าง นี่คือสิ่งที่เราต้องการโดยทั่วไปเนื่องจากภาพที่ได้นั้นเหมาะสมกับสายตาของเราและเพียงพอที่จะบันทึกฉากสำหรับจุดประสงค์และจุดประสงค์ส่วนใหญ่ แต่ทำไมเราต้อง จำกัด กล้องให้จับและบันทึกแสงในแบบที่มนุษย์เห็น? สมมติว่าเราเปลี่ยนฟิลเตอร์เหนือ "พิกเซล" แบบแสงเป็นแสงเพื่อยอมรับความยาวคลื่นที่แตกต่างกันโดยเฉพาะอย่างยิ่งตัวกรองที่เราไม่เห็นตามปกติหรือตัวกรองที่อยู่ใกล้กันในช่วงสีพิเศษที่จะให้รายละเอียดมากขึ้น จากตรงนั้นเราสามารถยืดสเปกตรัมสีด้วย 0/360 เป็นสีแรก 120 เป็นสีที่สองและ 240 เป็นสีสุดท้าย ฉันอยากรู้ว่าผลลัพธ์ของสิ่งนี้จะเป็นเช่นไรตัวอย่างเช่นเราเลือกความยาวคลื่น 800 nm, 400 nm และ 200 nm เพื่อดูอินฟราเรดและรังสีอัลตราไวโอเลตอีกเล็กน้อย หรือถ้าเรามีภาพตัดปะของสิ่งที่ปรากฏเป็นสีน้ำเงินเราสามารถเลือกความยาวคลื่น 450 นาโนเมตร, 475 นาโนเมตรและ 500 นาโนเมตรเพื่อแยกแยะเฉดสีที่คล้ายกันได้ง่ายขึ้น ความเป็นไปได้อีกอย่างก็คือการตรวจจับความยาวคลื่นที่แตกต่างกันสี่แบบและทำแผนที่สิ่งเหล่านี้ลงบนสเปกตรัมสี สิ่งนี้จะช่วยให้บางอย่างเช่นการถ่ายภาพ "tetrachromatic" นี่คือตัวอย่างของสิ่งที่เราคาดหวัง (เปลี่ยนเพื่อสะท้อนคำถามที่ดีกว่า): …