คอมพิวเตอร์กราฟฟิค

ถาม - ตอบสำหรับนักวิจัยคอมพิวเตอร์กราฟิกและโปรแกรมเมอร์

2
การแปลงรังสีเป็นวัตถุอวกาศสำหรับภาพเคลื่อนไหวเบลอ
My raytracer รองรับวัตถุหลากหลายประเภท ฉันใช้เทคนิคมาตรฐานในการแปลงรังสีให้เป็นพื้นที่วัตถุ มันใช้งานได้ดีมากจนกระทั่งฉันเพิ่มการเคลื่อนไหวเบลอ ฉันทำแบบจำลองการเคลื่อนไหวเบลอเป็นลำดับของการแปลง (เพื่อทำให้การสนทนาง่ายขึ้นสมมติว่ามีสองอย่าง) แทนที่จะเป็นแบบเดียว วิธีการของฉันคือใช้การแปลงผกผันของรังสีที่ทั้งเฟรมหลักและวางตำแหน่ง / ทิศทาง ดูเหมือนว่ามันจะทำงานได้ดีสำหรับการแปล แต่มันก็แยกย่อยสำหรับการหมุนเวียน เช่นนี่คือรูปสามเหลี่ยมสองรูปที่อยู่ระหว่างการหมุน 30 และ 90 องศา: (4 ตัวอย่าง, การสร้างใหม่ MN, ตัวอย่างสีแดงมาจากใกล้กับสอง keyframes) ที่มุมฉันคาดว่าตัวอย่าง lerped จะอยู่บนเส้นตรงระหว่างจุดยอดทั้งสอง พวกเขากลับนูนออกมาด้านนอก นี่เป็นสิ่งที่ผิด ในฉากที่น่าสนใจยิ่งขึ้นด้วยการแปลงที่น่าสนใจมากขึ้นมันทำให้เกิดโหมดความล้มเหลวที่หลากหลาย เช่นนี่คือใบพัดหมุน 45 รอบ: (100 ตัวอย่างภาพปกติ) ปัญหาบางอย่างเกิดจากการแตกหักของ BVH (ซึ่งถือว่าส่วนใหญ่ของวัตถุอยู่ที่คีย์เฟรม) แต่ถึงแม้แรงเดรัจฉานบังคับจะไม่ถูกต้องก็ตาม ฉันสามารถแก้ไขทั้งหมดนี้ได้โดยทำการแปลงไปข้างหน้าเท่านั้น (เปลี่ยนวัตถุไม่ใช่รังสี) แต่ใช้ได้กับวัตถุที่เป็นไปได้เท่านั้น (รูปสามเหลี่ยมเท่านั้นจริง ๆ ) ฉันจะทำให้ raytracer ของฉันสร้างการประมาณเชิงเส้นเพื่อการแปลง (โดยเฉพาะการหมุน) โดยการแปลงรังสีไม่ใช่วัตถุได้อย่างไร

2
เหตุใดจึงต้องใช้ตัวกรองเต็นท์ในการติดตามเส้นทาง
99 สายของเส้นทางตามรอยซีSmallptวาทกรรมตาราง 2x2 พิกเซลย่อยสำหรับแต่ละพิกเซลก็ตั้งใจที่จะทำให้แล้วไม่กรองเต็นท์จะรวมพวกเขา มีการนำเสนอที่น่าสนใจอธิบายรหัสที่นี่และมันกล่าวถึงตัวกรองเต็นท์ แต่ไม่ได้อธิบายว่าทำไมมันถึงมี ทุกคนสามารถอธิบายได้หรือไม่ว่าทำไมตัวกรองเต็นท์จึงเป็นที่นิยมในกรณีนี้มากกว่าการเบลอกล่อง (เพียงเฉลี่ยค่าตัวอย่าง) มันจะมีคุณภาพสูงกว่าหรือไม่ที่จะไปกับสิ่งที่ดีกว่าตัวกรองเต็นท์เช่นการประมาณค่ากึ่งเฮอร์ไมต์ bicubic?

2
อะไรจะเป็นวิธีที่ถูกต้องในการคำนวณความอิ่มตัวในกรณีนี้
ฉันกำลังพยายามแสดง HSV ของพื้นที่สี xyY ในการคำนวณเฉดสีจากสีฉันใช้มุมระหว่างสีนั้นกับสีแดง (ความยาวคลื่น 745) บนไดอะแกรม xy chromacity ด้วยสีขาว( 1(x,y)(x,y)(x, y)เป็นศูนย์กลาง(13,13)(13,13)(\frac{1}{3}, \frac{1}{3}) ความอิ่มตัวคืออัตราส่วนระหว่างระยะห่างระหว่างสีขาวและและสีขาวและรุ่นที่อิ่มตัวอย่างเต็มที่ของ( x , y ) (ซึ่งเป็นจุดตัดระหว่างเส้นแบ่งระหว่าง( 1)(x,y)(x,y)(x, y)(x,y)(x,y)(x, y)และ(x,y)และขอบของไดอะแกรม chromacity)(13,13)(13,13)(\frac{1}{3}, \frac{1}{3})(x,y)(x,y)(x, y) แผนภาพ Chromacity xy: ปัญหาที่ฉันมีคือเมื่อฉันวางแผนพื้นที่สีของฉัน (ที่ค่า = 1) และเปรียบเทียบกับ HSV ที่เป็นตัวแทนของ RGB ความอิ่มตัว (ระยะทางจากศูนย์กลาง) ดูเหมือนจะไม่ตรงกับสี "สีสัน" จริง ๆ แล้ว: พื้นที่สีของฉัน (ความอิ่มตัวดูเหมือนผิด): พื้นที่สี HSV ของ RGB: …

2
การทำแผนที่ mip ทำงานอย่างไรกับพื้นผิวที่ไม่ได้ทรงพลัง?
ฉันได้ยินมาว่า GPU ล่าสุดนั้นรองรับการทำงานของพื้นผิวที่ไม่มีประสิทธิภาพและคุณสมบัติทั้งหมดก็ใช้งานได้ อย่างไรก็ตามฉันไม่เข้าใจว่าการทำแผนที่ mip จะทำงานอย่างไรในสถานการณ์ดังกล่าว มีคนอธิบายได้ไหม
12 texture 

1
การซิงโครไนซ์การเรียกใช้ OpenGL Compute Shader อย่างต่อเนื่อง
ฉันมีตัวประมวลผลสองตัวที่ต้องดำเนินการในลำดับที่แน่นอนและเอาต์พุตที่ขึ้นอยู่กับอินพุตก่อนหน้า เป็นการดีที่ฉันจะไม่ต้องคัดลอกบัฟเฟอร์ฝั่งไคลเอ็นต์และทำงานทั้งหมดของฉันบน GPU พิจารณาฉันมีสองเฉดสีประมวลรวบรวมและเชื่อมโยงเป็นและprogram_one program_twoสมมติว่าฉันยังมีGL_SHADER_STORAGE_BUFFERที่มีข้อมูลที่ถูกเขียนไปโดยและอ่านโดยprogram_one program_twoฉันสามารถทำสิ่งต่อไปนี้ได้ไหม: glUseProgram(program_one); glBindBuffer(GL_SHADER_STORAGE_BUFFER, buffer); glBindBufferBase(GL_SHADER_STORAGE_BUFFER, index, buffer); glDispatchCompute(16, 16, 1); glUseProgram(program_two); glBindBuffer(GL_SHADER_STORAGE_BUFFER, buffer); glBindBufferBase(GL_SHADER_STORAGE_BUFFER, index, buffer); glDispatchCompute(16, 16, 1); มันรับประกันได้หรือไม่ว่าการร้องขอทั้งหมดของ shader การคำนวณแรกจะเสร็จสิ้นก่อนที่จะมีการร้องขอที่สอง (เพื่อหลีกเลี่ยงการแย่งข้อมูลระหว่างการอ่านและการเขียนbuffer)? ถ้าไม่ฉันจะซิงโครไนซ์มันได้อย่างไร?

2
วิธีการคำนวณพื้นผิวสำหรับเรขาคณิตที่สร้างขึ้น
ฉันมีคลาสที่สร้างรูปร่าง 3 มิติตามอินพุตจากรหัสการโทร อินพุตเป็นสิ่งต่าง ๆ เช่นความยาวความลึกส่วนโค้งและอื่น ๆ รหัสของฉันสร้างรูปทรงเรขาคณิตได้อย่างสมบูรณ์แบบ แต่ฉันพบปัญหาเมื่อคำนวณหาค่ามาตรฐานของพื้นผิว เมื่อส่องสว่างรูปร่างของฉันมีการระบายสี / พื้นผิวที่แปลกประหลาดมากจากบรรทัดฐานของพื้นผิวที่ไม่ถูกต้องที่คำนวณ จากการวิจัยทั้งหมดของฉันฉันเชื่อว่าคณิตศาสตร์ของฉันถูกต้องดูเหมือนว่ามีบางอย่างผิดปกติกับเทคนิคหรือวิธีการของฉัน ในระดับสูงเราจะคำนวณค่าปกติของพื้นผิวสำหรับรูปร่างที่สร้างขึ้นโดยทางโปรแกรมได้อย่างไร ฉันใช้ Swift / SceneKit บน iOS เป็นรหัสของฉัน แต่คำตอบทั่วไปนั้นใช้ได้ ฉันมีสองอาร์เรย์ที่แสดงถึงรูปร่างของฉัน หนึ่งคืออาร์เรย์ของจุด 3 มิติที่แสดงถึงจุดยอดที่ประกอบเป็นรูปร่าง อาเรย์อีกอันคือรายการดัชนีของอาเรย์แรกที่แมปจุดยอดเป็นรูปสามเหลี่ยม ฉันจำเป็นต้องใช้ข้อมูลนั้นและสร้างอาร์เรย์ลำดับที่ 3 ซึ่งเป็นชุดของบรรทัดฐานพื้นผิวที่ช่วยในการให้แสงสว่างของรูปร่าง (ดูSCNGeometrySourceSemanticNormalใน SceneKit` ) รายการของจุดยอดและดัชนีมักจะแตกต่างกันไปขึ้นอยู่กับอินพุตของคลาสดังนั้นฉันจึงไม่สามารถคำนวณล่วงหน้าหรือรหัสยาก ๆ เกี่ยวกับค่ามาตรฐานพื้นผิวได้

2
การแสดงผลที่สมจริง: ฉันต้องพิจารณากระบวนการใดของตาและสมองของมนุษย์
การแสดงผลแบบภาพเสมือนจริงมีเป้าหมายของการแสดงผลภาพเป็นที่กล้องจริงจะจับมัน แม้ว่านี่จะเป็นเป้าหมายที่ทะเยอทะยานอยู่แล้ว แต่สำหรับบางสถานการณ์ที่คุณอาจต้องการดำเนินการต่อไป: ทำให้ภาพเหมือนดวงตามนุษย์จะจับภาพหรือแม้กระทั่งในขณะที่มนุษย์มองเห็นมัน คุณสามารถเรียกมันว่าการเรนเดอร์visiorealisticหรือperceptiorealisticแต่ถ้ามีใครสามารถสร้างคำศัพท์ที่จับได้ (หรือบอกฉันว่ามีอยู่แล้ว) ฉันขอขอบคุณ นี่คือตัวอย่างที่จะทำให้จุดของฉันชัดเจน เมื่อคุณถ่ายภาพด้วยกล้องที่มีระดับความสว่างต่ำคุณอาจมีเลนส์ที่ดีหรือมีภาพที่มีเสียงดัง สำหรับผู้สังเกตการณ์มนุษย์วิสัยทัศน์ scotopicเริ่มขึ้นและก่อให้เกิดเอฟเฟกต์ Purkinje (สีจะเปลี่ยนเป็นสีน้ำเงิน) ผลกระทบนี้ขึ้นอยู่กับข้อมูลความสว่างของ HDR ซึ่งหายไปเมื่อฉันแสดงภาพบนจอแสดงผล LDR นอกจากนี้สมองของมนุษย์อาจใช้ข้อมูลเชิงลึกเพื่อ 'กรอง' ภาพที่รับรู้ - ข้อมูลที่หายไปในการแสดงผลขั้นสุดท้าย (ไม่ใช่สเตอริโอ) การรวบรวมรายการที่ละเอียดถี่ถ้วนอาจเป็นเป้าหมายที่เข้าใจยาก คุณช่วยแนะนำผลกระทบของดวงตาและสมองที่ฉันต้องพิจารณาได้ไหม?

1
การแปลงฟูริเยร์ 2D ของรูปภาพทำงานอย่างไร
ฉันเข้าใจว่าการแปลงฟูริเยร์ 1D แยกสัญญาณเป็นความถี่ขององค์ประกอบ แต่ฉันมีปัญหาในการเข้าใจว่าการแปลงฟูริเยร์ 2D ส่งผลต่อภาพ 2D อย่างไร จากคำถามอื่น , จอห์น Calsbeekเชื่อมโยงกับกระดาษที่น่าสนใจเกี่ยวกับการวัดคุณภาพของฟังก์ชั่นเสียง สิ่งนี้แสดงให้เห็นถึงฟังก์ชั่นเสียงรบกวนที่หลากหลายและการแปลงฟูริเยร์ของแต่ละคน นี่เป็นการแปลงข้อมูลพิกเซลแบบไม่ต่อเนื่องหรือการแปลงอย่างต่อเนื่องของฟังก์ชั่นการแก้ไขอย่างต่อเนื่องซึ่งใช้ในการสร้างเสียงรบกวนที่จุดใด ๆ หรือไม่? รูปร่างวงแหวนเป็นรูปวงแหวนที่มีขนาด 1D Fourier แปลงเส้นผ่านศูนย์กลางของภาพในทุกมุมที่เป็นไปได้หรือไม่? หรือการแปลงสำหรับแต่ละมุมที่เป็นไปได้นั้นวัดทั่วพื้นที่ 2D ทั้งหมดแทนที่จะเป็นไปตามเส้นตรงผ่านจุดศูนย์กลาง ฉันพยายามที่จะเข้าใจอย่างถ่องแท้ว่าการเปลี่ยนแปลงใดในภาพอินพุทนั้นสอดคล้องกับการเปลี่ยนแปลงของการแปลงฟูริเยร์

1
การติดตาม Radiosity VS Ray
Radiosity นั้นเป็นสิ่งที่อนุญาตให้: ในแบบฝึกหัดของCornell University เกี่ยวกับ Radiosityกล่าวไว้ว่า: รูปภาพเวอร์ชันที่ติดตามด้วยรังสีจะแสดงเฉพาะแสงที่มาถึงวิวเวอร์โดยการสะท้อนโดยตรงดังนั้นจึงพลาดเอฟเฟกต์สี อย่างไรก็ตามในWikipedia : Radiosity เป็นอัลกอริธึมการส่องสว่างระดับโลกในแง่ที่ว่าการส่องสว่างที่มาถึงพื้นผิวนั้นไม่เพียงแค่มาจากแหล่งกำเนิดแสงโดยตรง แต่ยังมาจากพื้นผิวอื่นที่สะท้อนแสงด้วย ... วิธี radiosityในที่เกิดขึ้นในปัจจุบันบริบทคอมพิวเตอร์กราฟิกจาก (และเป็นพื้นฐานเดียวกับ) วิธี radiosity ในการถ่ายโอนความร้อน และถ้าการติดตามรังสีมีความสามารถ: การจำลองเอฟเฟกต์แสงที่หลากหลายเช่นการสะท้อน (การสะท้อนแบบกระจาย ) และการกระเจิง (เช่นการเบี่ยงเบนของรังสีจากเส้นทางตรงเช่นการผิดปกติในสื่อที่แพร่กระจายอนุภาคหรือในอินเตอร์เฟซระหว่างสองสื่อ) บทช่วยสอนนั้นไม่ได้พิจารณาผลกระทบเหล่านี้หรือมีวิธีใช้คลื่นความถี่ที่สามารถใช้ในการติดตามรังสีเพื่อเปิดใช้งานได้หรือไม่ ถ้าไม่เอฟเฟกต์แสงเหล่านี้ไม่สามารถจำลองสภาพคลื่นวิทยุทั้งหมดหรืออัลกอริทึมแบบคลื่นวิทยุมีประสิทธิภาพมากขึ้นในการแก้ปัญหาการสะท้อนแสงแบบกระจายหรือไม่?

5
มีข้อกำหนดมาตรฐานสำหรับการแสดงกราฟิก 3 มิติหรือไม่
ฉันกำลังอ่านหนังสือเกี่ยวกับคอมพิวเตอร์กราฟิกและในบางครั้งมันก็แสดงแบบจำลอง 3 มิติที่สร้างจากไฟล์. dat นี่เป็นกฎบางประการสำหรับการสร้างไฟล์. dat: ทำจากรายการของตำแหน่งจุดสุดยอด / ใบหน้า เขียนทวนเข็มนาฬิกา ใบหน้าลงท้ายด้วยจุด (.) เศษส่วนยังเป็นที่ยอมรับ ฉันต้องการทราบว่านี่เป็นมาตรฐานหรือไม่ถ้าไม่อะไรคือวิธีมาตรฐานในการกำหนดวัตถุ 3 มิติ นอกจากนี้หากมีข้อกำหนดใครเป็นผู้กำหนดและหาได้ที่ไหน
12 3d 

1
โพลาไรเซชันการสะท้อนและการหักเหของแสงสำหรับพันรอบผิวน้ำ
ฉันต้องการที่จะแสดงภาพที่เหมือนจริงของน้ำในที่อยู่อาศัยอวกาศที่โคจรอยู่ ภาพไม่จำเป็นต้องถูกสร้างขึ้นแบบเรียลไทม์แม้ว่าฉันจะไม่ต้องการให้ใช้เวลาเป็นสัปดาห์ก็ตาม ฉันกำลังมองหาวิธีการที่สามารถสร้างภาพที่สมจริงในชั่วโมงหรือวัน ที่อยู่อาศัยเป็นรูปทรงกระบอกที่มีพื้นผิวด้านในโค้งเป็นพื้นที่อยู่อาศัย การหมุนของทรงกระบอกเกี่ยวกับแกนของมันนั้นให้การประมาณแรงโน้มถ่วง ฉันไม่ได้มองหารายละเอียดของการจำลองฟิสิกส์ของเรื่องนี้เพียงแค่การสร้างภาพ สิ่งที่ฉันอยากรู้เกี่ยวกับเรื่องนี้คือโพลาไรเซชัน แสงที่สะท้อนจากผิวน้ำเป็นโพลาไรซ์โดยปล่อยแสงที่ผ่านไปในน้ำโพลาไรซ์ในแนวตั้งฉากกับแสงที่สะท้อน ไม่สนใจเอฟเฟกต์นี้และเพียงสร้างแบบจำลองสัดส่วนของแสงที่สะท้อนและส่งงานได้ดีพอสมควรเมื่อมีผิวน้ำเพียงอันเดียว แต่ถ้าที่อยู่อาศัยทรงกระบอกมีแหล่งน้ำที่มีสัดส่วนของพื้นผิวโค้งมาก การสะท้อนหลายครั้งในมุมที่แตกต่างหลากหลาย ซึ่งหมายความว่าสัดส่วนของแสงที่สะท้อนจะขึ้นอยู่กับมุมโพลาไรซ์ที่ใช้ก่อนหน้านี้ มีวิธีการเดิม ๆ ที่รวมเอฟเฟกต์ดังกล่าวที่สามารถให้ภาพที่เหมือนจริงของการสะท้อนหลายจุดจากผิวน้ำโค้งหรือไม่? พวกเขายังจำเป็นต้องสร้างแบบจำลองการหักเหของแสงด้วยโพลาไรเซชัน น้ำจะตื้นในสถานที่ดังนั้นฉันคาดว่าการหักเหของแสงจะมีผลต่อผลลัพธ์ ถ้าไม่ฉันสามารถปรับตัวติดตามรังสีที่มีอยู่หรือต้องการวิธีการนี้ตั้งแต่เริ่มต้นหรือไม่ ฉันกำลังมองหาความสมจริงเพื่อค้นพบเอฟเฟ็กต์ที่ไม่คาดคิดไม่ใช่แค่ส่งผ่านความเป็นจริงไปยังผู้สังเกตการณ์ธรรมดา ๆ เห็นได้ชัดว่าผู้สังเกตการณ์ส่วนใหญ่ (รวมถึงฉัน) จะไม่ทราบถึงผลกระทบที่จะมองหาเนื่องจากพวกเขาไม่คุ้นเคยกับชีวิตประจำวันดังนั้นฉันจึงกำลังมองหา

2
OpenGL - การตรวจจับขอบ
ฉันต้องการที่จะโหลดตาข่ายโดยพลการและวาดเส้นสีดำหนาตามขอบเพื่อให้ได้รูปเงาแบบตูน ฉันจัดการวาดเงาดำรอบ ๆ วัตถุโดยใช้ stencil buffer คุณสามารถดูผลลัพธ์ได้ที่นี่: แต่สิ่งที่ขาดหายไปคือเส้นสีดำในวัตถุนั้นเอง ฉันคิดเกี่ยวกับการตรวจสอบความไม่ต่อเนื่องตามปกติ: การตรวจสอบว่าพิกเซลข้างเคียงมีเวกเตอร์ปกติแตกต่างจากพิกเซลปัจจุบันหรือไม่ ถ้าใช่พบขอบแล้ว น่าเสียดายที่ฉันไม่รู้ว่าฉันจะใช้วิธีการนี้ได้อย่างไรทั้งใน OpenGL และใน GLSL เวอร์เท็กซ์ / ส่วนแยก ฉันยินดีเป็นอย่างยิ่งสำหรับความช่วยเหลือเกี่ยวกับวิธีการนี้หรือการตรวจจับขอบอื่น ๆ แก้ไข: ฉันไม่ได้ใช้พื้นผิวใด ๆ สำหรับตาข่ายของฉัน แม่นยำยิ่งกว่านี้ฉันต้องการสร้างโซลูชัน CAD / CAM ที่ดูมากที่สุดเช่นนี้ (นำมาจาก Top Solid https://www.youtube.com/watch?v=-qTJZtYUDB4 ):

1
วิธีการที่ยอมรับได้ของการเปลี่ยนความเงางามให้เป็นความหยาบและในทางกลับกันคืออะไร?
เครื่องมือสร้างภาพที่ทันสมัยส่วนใหญ่ใช้วัสดุที่มีคุณสมบัติทางกายภาพ เนื่องจากสิ่งนี้ไม่ได้เกิดขึ้นกับตัวเรนเดอร์บ่อยครั้งสินทรัพย์แบบดั้งเดิมมักไม่มีความหยาบ แต่เรากลับเห็นว่า "ความมัน" หรือ "พลังงานแบบ specular" เป็นพารามิเตอร์วัสดุทั่วไป ฉันเข้าใจว่าไม่มีการแปลงที่แน่ชัดระหว่างสองสิ่งนี้ แต่มีวิธีที่ใช้กฎง่ายๆ / โดยประมาณในการรับความหยาบสำหรับวัสดุที่รู้จักพลังพิเศษหรือความมันวาวหรือไม่?
12 specular  brdf  pbr 

1
การสุ่มตัวอย่างซีกโลกถ่วงน้ำหนักยังคงต้องใช้ NdotL เมื่อคำนวณการมีส่วนร่วมสำหรับแสงทางอ้อมหรือไม่?
เมื่อแปลงจากการสุ่มตัวอย่างซีกโลกเท่ากันเพื่อการสุ่มตัวอย่างซีกโลกถ่วงน้ำหนักโคไซน์ฉันสับสนโดยคำสั่งในบทความ ผลงานทางอ้อมในปัจจุบันของฉันถูกคำนวณดังนี้: Vec3 RayDir = UniformGenerator.Next() Color3 indirectDiffuse = Normal.dot(RayDir) * castRay(Origin, RayDir) จุดผลิตภัณฑ์เป็น cos (θ) แต่ในบทความนี้เกี่ยวกับการสุ่มตัวอย่างที่ดีกว่า ( http://www.rorydriscoll.com/2009/01/07/better-sampling/ ) ผู้เขียนแนะนำว่า PDF คือ (cos (θ) / pi) และไม่มีหลักฐานของ การคำนวณ N dot L คำถามของฉันคือ - นั่นหมายความว่าฉันไม่จำเป็นต้องทำการ dot dotDirection ปกติอีกต่อไปเพราะมันรวมอยู่ใน PDF หรือนอกเหนือจาก pdf หรือไม่

1
"makeContextCurrent" ทำอะไรกันแน่
ฉันค่อนข้างสับสนเกี่ยวกับฟังก์ชั่นนั้น การอ้างอิงบริบท GLFWกล่าวว่า: ฟังก์ชันนี้ทำให้บริบท OpenGL หรือ OpenGL ES ของหน้าต่างที่ระบุเป็นปัจจุบันบนเธรดการโทร บริบทสามารถสร้างให้เป็นปัจจุบันได้ครั้งละหนึ่งเธรดและแต่ละเธรดสามารถมีบริบทปัจจุบันเพียงหนึ่งครั้งเท่านั้น แต่มันก็ไม่ได้ช่วยอะไรมาก มันสามารถทำงานได้เหมือนglBind-วิธีการหรือไม่? (glBindBuffer, glBindVertexArray และอื่น ๆ )
12 opengl  c++ 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.