คอมพิวเตอร์กราฟฟิค

ถาม - ตอบสำหรับนักวิจัยคอมพิวเตอร์กราฟิกและโปรแกรมเมอร์

1
การคัดค้านทางโลกทำงานอย่างไร
การลบรอยหยักชั่วคราว (และอัลกอริธึมชั่วคราวอื่น ๆ ) ทำงานโดยการจับคู่พิกเซลกับเฟรมนี้กับพิกเซลจากเฟรมสุดท้ายแล้วใช้ข้อมูลนั้น ฉันเข้าใจว่าคุณสามารถใช้เมทริกซ์เฟรมสุดท้ายและเฟรมปัจจุบันพร้อมกับข้อมูลเวคเตอร์เวกเตอร์เพื่อจับคู่พิกเซลระหว่างเฟรม สิ่งที่ฉันไม่เข้าใจคือคุณจะทราบได้อย่างไรว่าพิกเซลที่ถูกปฏิเสธนั้นถูกต้องหรือไม่ ตัวอย่างเช่นพิกเซลเก่าอาจถูกซ่อนอยู่หลังวัตถุอื่น มันเป็นสีเท่านั้น? ถ้าเป็นเช่นนั้นพื้นผิวเคลื่อนไหวหรือการเปลี่ยนแปลงสภาพแสงจะจัดการอย่างไร

1
การแสดงผลที่มีประสิทธิภาพพร้อมแหล่งกำเนิดแสงจำนวนมาก
ในการสร้างฉากด้วยแหล่งกำเนิดแสงเดียวโดยใช้การแรเงาด้วยพงษ์เราสามารถคำนวณสีสุดท้ายของแต่ละชิ้นส่วนที่ส่งผ่านไปยังส่วนของชิ้นส่วนที่ขึ้นอยู่กับองค์ประกอบของแสงและแสงโดยรอบ สิ่งนี้สามารถขยายได้อย่างง่ายดายเพื่อรองรับแหล่งกำเนิดแสงหลายแห่งด้วยการเพิ่มผลลัพธ์ของการใช้แหล่งกำเนิดแสงแต่ละแหล่งบนชิ้นส่วนเช่น: final_color = (0, 0, 0, 1) for each light: final_color += apply_light(material, light) final_color = clamp(final_color, (0,0,0,1), (1,1,1,1)) อย่างไรก็ตามด้วยแหล่งกำเนิดแสงจำนวนมากกระบวนการนี้ค่อนข้างช้า ด้วยNไฟวิธีนี้ต้องใช้การคำนวณสำหรับการแรเงาพองที่จะทำNครั้งต่อชิ้นส่วน มีวิธีการที่ดีกว่าในการเรนเดอร์ฉากด้วยแหล่งแสงจำนวนมาก (หลายร้อยพัน ฯลฯ ) หรือไม่?

1
ความชัดลึกของฟิลด์ไม่สอดคล้องกันในภาพนิ่ง 3 มิติหรือไม่?
หากการเรนเดอร์ภาพเป็นแบบ 2D การเพิ่มความลึกของเอฟเฟ็กต์ฟิลด์ (วัตถุที่พร่ามัวจากระยะโฟกัส) เพิ่มความสมจริงและดึงสายตาไปยังวัตถุของภาพ ด้วยภาพ 3 มิติ (เช่นสเตอริโอ) การมองวัตถุในภาพที่ความลึกที่กำหนดจะทำให้วัตถุที่ความลึกอื่น ๆ เบลอ (ไม่เบลอ แต่ถูกจัดแนวด้วยสายตาอย่างไม่ถูกต้องทำให้เป็นภาพซ้อน) ซึ่งหมายความว่าหากใช้ความลึกของเอฟเฟกต์ฟิลด์จะมีผลลัพธ์ที่ขัดแย้งกัน: การดูวัตถุที่ความลึกที่แตกต่างกันจะทำให้ความลึกนั้นเป็นความลึกเพียงอย่างเดียวที่ไม่มีภาพซ้อน แต่มันก็เป็นความลึกที่ เบลอ. สิ่งนี้ทำให้วัตถุมีคุณสมบัติของการเน้นและคุณสมบัติของการไม่เน้น ในภาพนิ่ง 3 มิติผลกระทบระยะชัดลึกที่เป็นอันตรายต่อการยอมรับของภาพด้วยตาหรือมีวิธีแก้ไขปัญหานี้หรือไม่?

1
อัลกอริทึมสำหรับการสุ่มตัวอย่างภาพลงหรือไม่
การสุ่มตัวอย่าง Bicubic นั้นค่อนข้างดีสำหรับการสุ่มตัวอย่างภาพและทำให้มันใหญ่ขึ้น แต่มันเป็นตัวเลือกที่ดีสำหรับการสุ่มตัวอย่างแบบลงหรือไม่ มีทางเลือกที่ดีกว่านี้ไหม?
10 texture 

1
มีการใช้ความลึกของฟิลด์อย่างไร
ฉันรู้ว่าความลึกของสนามเกี่ยวข้องกับการทำให้เบลอ มีข้อมูลที่ดีเกี่ยวกับการทำ Gaussian Blur ในคำถามทำอย่างไร Gaussian Blur จะถูกนำไปใช้อย่างไร แต่นอกเหนือจากนั้นความลึกของสนามนำไปใช้อย่างไร มีกฎอะไรบ้างเกี่ยวกับวิธีการเบลอพิกเซลแต่ละพิกเซลและวิธีจัดการกรณีของเมื่อมีพิกเซลที่ต้องการเบลอมาก ๆ ถัดจากพิกเซลที่ไม่ต้องการเบลอมากนัก ฉันยังได้ยินเกี่ยวกับ "วงกลมแห่งความสับสน" แต่ก็ไม่รู้ว่ามันคืออะไร ทุกคนสามารถอธิบาย DOF ในวิธีที่ง่ายและเข้าใจได้หรือไม่

3
รัศมีที่เหมาะสมที่สุดของการแจกแจงแบบเกาส์สำหรับกำหนดสีพิกเซลคืออะไร
การใช้การแจกแจงแบบเกาส์ของจุดบนระนาบภาพเพื่อคำนวณค่าพิกเซลรัศมี / ส่วนเบี่ยงเบนมาตรฐานใดที่ให้ข้อมูลมากที่สุดในภาพสุดท้าย รัศมีมีขนาดใหญ่เกินไปให้ภาพเบลอและรัศมีมีขนาดเล็กเกินไปละเลยข้อมูลที่มีขนาดเล็กกว่าพิกเซลเพื่อไม่ให้มีส่วนร่วมในภาพสุดท้าย การประนีประนอมที่เหมาะสมที่สุดอยู่ที่ไหน มีคำตอบเดียวสำหรับคำถามนี้หรือมีสถานการณ์ที่แตกต่างกันไปหรือไม่? ฉันกำลังคิดเกี่ยวกับเรื่องนี้เกี่ยวกับการถ่ายภาพรังสี แต่ฉันคิดว่ามันจะใช้กับสิ่งต่าง ๆ เช่นการลดขนาดรูปภาพ ในกรณีที่คำตอบจะแตกต่างกันฉันสนใจในสิ่งที่ใช้เมื่อสุ่มตัวอย่างระนาบภาพต่อเนื่องเพื่อไม่ให้ตำแหน่งพิกเซลในภาพที่มีขนาดใหญ่ขึ้นเพื่อกำหนดรัศมีที่เหมาะสม
10 sampling  pixels 

3
เหตุใด Vertex Buffer Objects จึงปรับปรุงประสิทธิภาพ
จากความเข้าใจพื้นฐานของฉัน Vertex Buffer Object ทำงานได้ดังนี้ (รหัสหลอก): โดยปกติถ้าใครอยากพูดให้วาดสี่เหลี่ยมจัตุรัสหนึ่งสามารถออกคำสั่งการวาดเส้น line (0, 0) -> (1, 0) line (1, 0) -> (1, 1) line (1, 1) -> (0, 1) line (0, 1) -> (0, 0) การใช้ VBO ถ้าฉันเข้าใจถูกต้องจะโหลดจุดยอดลงใน VBO define VBO load (0,0) -> VBO load (1,0) -> VBO load (1,1) -> VBO load …

1
เมื่อสร้าง JPEG ฉันจะลดการเกิดขึ้นของสิ่งประดิษฐ์ได้อย่างไร
มีปัจจัยหลัก 2 ประการที่ดูเหมือนว่าจะนำไปสู่สิ่งประดิษฐ์ดิจิทัลเมื่อสร้างภาพ JPEG: นามแฝงและการบีบอัด ตัวอย่าง: การแปลง PNG ที่มีตัวอักษรอยู่ในรูปแบบ JPEG หรือการวางภาพเวกเตอร์ไว้บนภาพถ่าย การลดรอยหยักโดยทั่วไปจะสร้างความพร่ามัวรอบ ๆ แต่ถ้าภาพถูกบีบอัดให้สูญเสียรายละเอียดบางส่วนก็หายไปดังนั้นความพร่ามัวและการทำให้เป็นพิกเซลอาจลดลงอย่างเห็นได้ชัด นี่เป็นสิ่งที่ถูกต้องหรือไม่ เช่นเนื่องจากการบีบอัดแบบไม่สูญเสียสร้างภาพที่มีรายละเอียดสูงสิ่งประดิษฐ์ที่เกิดจากนามแฝงจะเห็นได้ชัดเจนขึ้นดังนั้นจึงอาจพบความสมดุลโดยใช้การบีบอัดที่ถูกต้องแม้ว่าจะลดคุณภาพของภาพลง แก้ไข ฉันเพิ่งบันทึก JPEG นี้ใน mspaint (3.46KB): นี่คือ JPEG เดียวกันกับการบีบอัดสูงสุด (คุณภาพต่ำสุด 0.5KB): นี่คือ JPEG เดียวกันกับการบีบอัด 50% (สังเกตความแตกต่างของขนาด 1.29KB): การบีบอัด 50% เดียวกัน แต่บันทึกเป็น "โปรเกรสซีฟ JPG" เก็บข้อมูล EXIF ​​และ XMP ดั้งเดิมและ "พยายามบันทึกด้วยคุณภาพ JPG ดั้งเดิม" (คุณสามารถสังเกตเห็นว่าไม่มีพิกเซลสีเทาอยู่รอบ 2.96KB): และในที่สุดก็เหมือนกับเมื่อก่อนด้วยการปิดการสุ่มสี …

2
พลังงานทั้งหมดที่ปล่อยออกมาของแสงพื้นที่กระจาย
ฉันกำลังอ่านหนังสือการแสดงผลทางกายภาพ (Pharr, Humphreys) ในบทที่เกี่ยวกับไฟพวกเขาพูดคุยเกี่ยวกับการประมาณพลังงานรวมที่ปล่อยออกมาของแสงชนิดต่างๆ intensity * 4 * piยกตัวอย่างเช่นการรวมพลังไฟจุดคือ ที่นี่ 4pi แสดงถึงมุมที่เป็นของแข็งทั่วทั้งทรงกลม เรื่องนี้ทำให้รู้สึกถึงฉันเพราะความเข้ม * solid angle = power (หรือฟลักซ์การแผ่รังสีถ้าคุณต้องการ) คุณสามารถเห็นสิ่งนี้โดยหน่วยเช่นกัน ความเข้มคือ W / sr และมุมที่เป็นของแข็งคือ sr ดังนั้นW/sr * sr = Wและกำลังวัดเป็นวัตต์ มันตรวจสอบ DiffuseAreaLightแต่ผมไม่เข้าใจการคำนวณที่สอดคล้องกันสำหรับ emitted radiance * area * piจากความเข้าใจของฉันของหนังสือเล่มนี้พวกเขาคำนวณพลังงานทั้งหมดที่ปล่อยออกมาจากแสงกระจายเป็นพื้นที่ เนื่องจากหน่วยของความกระจ่างเป็นพื้นที่คูณ W / (sr * m ^ 2) ให้ W / …

1
อะไรคือความแตกต่างระหว่างออโธกราฟและการฉายมุมมอง?
ฉันเรียนคอมพิวเตอร์กราฟิกส์จากหนังสือความรู้พื้นฐานของคอมพิวเตอร์กราฟฟิค (แต่เป็นรุ่นที่สาม) และสุดท้ายฉันก็อ่านเกี่ยวกับการฉายภาพ แม้ว่าฉันไม่เข้าใจว่าอะไรคือความแตกต่างระหว่างการฉายภาพแบบออร์โทกราฟและการมองมุมมอง? ทำไมเราต้องการทั้งคู่พวกเขาใช้ที่ไหน? ฉันยังต้องการที่จะเรียนรู้ว่าการแปลงเปอร์สเปคทีฟที่ใช้ก่อนการฉายภาพแบบออร์โธกราฟในการฉายภาพเปอร์สเปคทีฟคืออะไร สุดท้ายทำไมเราต้องมีการแปลงวิวพอร์ต? ฉันหมายถึงเราใช้การแปลงมุมมองหากกล้อง / ผู้ดูไม่ได้ดู- z-Z-z- ทิศทาง แต่วิวพอร์ตคืออะไร

2
สาเหตุของการเกิดสิวเงา
ฉันรู้วิธีการทำแผนที่เงา แต่ฉันไม่ได้รับสาเหตุของการเกิดสิวเงา! ทุกคนสามารถบอกสาเหตุของการเกิดสิวเงาด้วยวิธีง่าย ๆ ได้หรือไม่และมันเกี่ยวข้องกับความละเอียดของแผนที่ลึกอย่างไร

1
อัลกอริทึม Jump Jump สามารถแยกกันได้หรือไม่
JFA (อัลกอริทึมที่อธิบายไว้ที่นี่: http://www.comp.nus.edu.sg/~tants/jfa/i3d06.pdf ) สามารถใช้เพื่อรับการประมาณของแผนภาพ Voronoi หรือการแปลงระยะทาง มันทำเช่นนั้นในเวลาลอการิทึมตามขนาดของภาพผลลัพธ์ไม่ใช่จำนวนเมล็ด คุณจะทำอย่างไรถ้าภาพของคุณมีขนาดไม่เท่ากันในแต่ละแกน หากมีขนาดใกล้เคียงกันฉันแน่ใจว่าคุณสามารถปล่อยให้แกนที่สั้นกว่ามีขั้นตอน JFA พิเศษขนาด 1 ในขณะที่แกนขนาดใหญ่ทำงานให้เสร็จ (เช่นมีขนาดภาพ 512 x 256) สำหรับขนาดแกนที่แตกต่างกันมากขนาดนี้อาจจะไม่มีประสิทธิภาพมากกว่านี้มาก - กล่าวว่าคุณมีพื้นผิวปริมาณที่ 512 x 512 x 4 เป็นไปได้หรือไม่ที่จะเรียกใช้ JFA ในแต่ละแกนแยกจากกันและยังได้ผลลัพธ์ที่ดี? หรือ ณ จุดนั้นเป็นอัลกอริทึมที่แตกต่างกันเหมาะสมกว่าที่จะใช้? ถ้าเป็นเช่นนั้นอัลกอริทึมแบบนั้นอาจเป็นอะไร? ในสถานการณ์ของฉันฉันกำลังมองหาที่จะสนับสนุนทั้งเมล็ดจุดเดียวเช่นเดียวกับเมล็ดรูปทรงโดยพลการ อาจมีน้ำหนักเมล็ดที่ระยะห่างจากเมล็ดจะถูกปรับโดยตัวคูณและ / หรือแอดเดอร์เพื่อให้มีอิทธิพลมากขึ้นหรือน้อยลง

2
การอัพเดตบัฟเฟอร์ความลึกทำงานอย่างไรใน GPU
ตอนนี้ฉันกำลังพยายามใช้บัฟเฟอร์ความลึกบางประเภทในซอฟต์แวร์และฉันมีปัญหาใหญ่เมื่อฉันเขียนลงไป มีหนึ่ง mutex เกินความจริงแน่นอน ดังนั้นฉันจึงสร้างจำนวน mutexes เท่ากับจำนวนเธรด ฉันล็อค mutex ตามพิกเซลปัจจุบัน (pixel_index% mutexes_number) และใช้งานได้ดีกว่า แต่ก็ช้ามาก และฉันสงสัยว่ามันทำใน GPU จริงได้อย่างไร? มีอัลกอริทึมหรือฮาร์ดแวร์ที่จัดการกับมันได้หรือไม่?
10 buffers 

1
ฉันจะคำนวณการครอบคลุมของเส้นโค้งวิเคราะห์ที่ทับซ้อนกันได้อย่างแม่นยำได้อย่างไร
การลดรอยหยักของรูปร่าง 2D จะลดขนาดลงเพื่อคำนวณเศษส่วนของพิกเซลที่ครอบคลุมโดยรูปร่าง สำหรับรูปร่างที่ไม่เหลื่อมซ้อนกันอย่างง่ายนี่ไม่ใช่เรื่องยากเกินไป: คลิปรูปร่างกับสี่เหลี่ยมพิกเซลและคำนวณพื้นที่ของรูปร่างที่ได้ แต่มันจะยากขึ้นหากมีหลายรูปร่างซ้อนทับพิกเซลเดียวกัน เพียงแค่การสรุปพื้นที่สามารถทำให้ความครอบคลุมที่คำนวณได้นั้นสูงเกินไปหากมันละเลยปริมาณที่รูปร่างหนึ่งครอบคลุมอีกรูปร่างหนึ่ง ตัวอย่างเช่นดูส่วนข้อ จำกัด ของบทความนี้ในการแสดงผลตัวอักษร คุณอาจอยู่ในสถานการณ์ที่เส้นโค้งทั้งสองมาจากวัตถุต่าง ๆ ที่มีสีต่างกัน (ดังนั้นจึงไม่เกี่ยวกับความครอบคลุมทั้งหมดสำหรับการรวมกันของสองรูปร่าง แต่ครอบคลุมแต่ละส่วนแยกจากกัน) สิ่งนี้จะคำนวณได้อย่างไรถ้าคุณใส่ใจกับความถูกต้องสมบูรณ์ แม้จะมีเล่ห์เหลี่ยมคุณจะคำนวณความครอบคลุมได้อย่างแม่นยำอย่างไรสำหรับการซ้อนทับรูปร่างที่ไม่ใช่รูปหลายเหลี่ยมเช่นเส้นโค้ง? มีบางจุดที่คุณไม่มีทางเลือกนอกจากต้องถอยกลับไปใช้เทคนิคการสุ่มตัวอย่างแบบหลายคลื่นหรือแบบสุ่มหรือไม่?

3
มีการจัดการกับผลกระทบเชิงปริมาตรใน raytracing อย่างไร
เอฟเฟ็กต์เชิงปริมาตรเช่นควันหมอกหรือก้อนเมฆโดย raytracer เป็นอย่างไร ต่างจากวัตถุทึบพวกนี้ไม่มีพื้นผิวที่กำหนดไว้อย่างดีในการคำนวณทางแยกด้วย

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.