คำถามติดแท็ก gpu

GPU (หน่วยประมวลผลกราฟิก) เป็นโปรเซสเซอร์เฉพาะที่ออกแบบมาเพื่อเร่งกระบวนการสร้างภาพ

10
มีประโยชน์สำหรับการใช้งาน CPU แทน GPU หรือไม่?
ฉันค้นคว้าโปรเซสเซอร์และการ์ดกราฟิกและพบว่า GPU นั้นเร็วกว่าซีพียู ฉันอ่านในบทความนี้หนึ่งNvidia GPU อายุ 2 ปีมีประสิทธิภาพสูงกว่าโปรเซสเซอร์ 3.2GHz Core I7 Intel 14 เท่าในบางสถานการณ์ หาก GPUs นั้นเร็วทำไมนักพัฒนาซอฟต์แวร์ถึงไม่ใช้มันสำหรับทุกฟังก์ชั่นในเกม เป็นไปได้ไหมที่ GPU จะทำสิ่งอื่นนอกเหนือจากกราฟิก
63 gpu  process  gpgpu 

5
ทำไม GPU ถึงต้องใช้ไดรเวอร์เฉพาะของเกม
การอัปเดตไดรเวอร์พีซี GPU มักอ้างถึงการปรับปรุงประสิทธิภาพของเกมที่วางจำหน่ายเมื่อเร็ว ๆ นี้โดยเฉพาะ เหตุใดการอัปเดตเฉพาะเกมนี้จึงจำเป็น การเปลี่ยนแปลงเฉพาะเกมมีการโต้ตอบกับรหัสเกมอย่างไร
30 gpu 

2
GPU จัดการกับพื้นผิวและ VRAM อย่างไร
จริงๆแล้วมันเป็นคำถามที่เกี่ยวข้องระหว่าง: พื้นผิวที่ถูกบีบอัด (dxt5 / dxt1 ฯลฯ ) แตกหักอย่างสมบูรณ์ในขณะที่กำลังแสดงผลไปป์ไลน์หรือไม่? หากคำตอบของคำถามแรกนั้นเป็นจริงหน่วยความจำจะถูกจัดการอย่างไรสำหรับพื้นผิวที่ไม่มีการบีบอัดขนาดใหญ่หลาย ๆ framebuffer ต่างจาก VRAM ใน GPU สมัยใหม่หรือไม่?
18 textures  gpu  memory 

3
CPU - การไหลของข้อมูลหน่วยความจำ GPU [ปิด]
ปิด คำถามนี้จะต้องมีมากขึ้นมุ่งเน้น ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้มุ่งเน้นที่ปัญหาเดียวโดยแก้ไขโพสต์นี้ ปิดให้บริการใน6 ปีที่ผ่านมา ฉันเป็นนักเขียนโปรแกรมกราฟิกมือใหม่และฉันเพิ่งสงสัยว่าเมื่อเร็ว ๆ นี้ - โมเดลข้อมูล (ตาข่ายและวัสดุ) ไหลจากแอปพลิเคชัน (หน่วยความจำ CPU) ไปยังการ์ดกราฟิก (หน่วยความจำ GPU) อย่างไร? บอกว่าฉันมีรูปแบบคงที่ (เช่นสิ่งปลูกสร้าง) ที่ฉันโหลดและตั้งค่าหนึ่งครั้งและไม่เปลี่ยนแปลงตลอดอายุการใช้งานของแอป ข้อมูลส่งไปยังหน่วยความจำ GPU เพียงครั้งเดียวและนั่งอยู่ที่นั่นตลอดไปหรือไม่? เมื่อแบบจำลองได้รับการแสดงผลจริงในแต่ละเฟรมแล้วตัวประมวลผล GPU ต้องดึงข้อมูลทุกครั้งจากหน่วยความจำ GPU หรือไม่ สิ่งที่ฉันหมายถึงคือ - ถ้าฉันมี 2 แบบจำลองที่แสดงหลายครั้งในแต่ละครั้ง - มันจะสำคัญไหมถ้าฉันแสดงครั้งแรกทีละหลายครั้งและอีกอันที่สองหลายครั้งหรือถ้าฉันแสดงครั้งแรกเพียงครั้งเดียว interleaving มันแบบนั้นเหรอ? ฉันสามารถเรียกคำถามนี้ว่า "การไหลของข้อมูล GPU ภายใน" ในแง่นี้ เห็นได้ชัดว่าการ์ดกราฟิกมี RAM จำกัด - เมื่อมันไม่สามารถเก็บข้อมูลโมเดลทั้งหมดที่จำเป็นสำหรับการเรนเดอร์ …

12
แอปพลิเคชันทำลายกราฟิกการ์ดได้หรือไม่
บันทึกย่อ: ฉันรู้ว่านี่เป็นเว็บไซต์ถาม - ตอบเกี่ยวกับการพัฒนาเกมแต่ฉันคิดว่าพวกคุณส่วนใหญ่รู้และมีประสบการณ์เกี่ยวกับกราฟิกการ์ดดังนั้นฉันจึงตอบคำถามนี้กับคุณ หากคุณคิดว่านี่เป็นหัวข้อที่ไม่สมบูรณ์โปรดอ้างอิงฉันไปยังไซต์ / ฟอรัมที่เหมาะสม แก้ไข: ที่จริงมันเป็น gamedev ที่เกี่ยวข้องกับ: ถ้ารหัสไม่ดีจะส่งผลให้ในการ์ดความร้อนสูงเกินไปหรือหมดแล้วนักพัฒนาเกมควรจะตระหนักถึงที่และให้แน่ใจว่างานของพวกเขาไม่ทำอย่างนั้น นี่อาจดูเหมือนเป็นคำถามแปลก ๆ หรือโง่ ๆ แต่จริง ๆ แล้วมันเป็นไปได้ไหมที่จะเขียนแอปพลิเคชันการแสดงผลกราฟิกที่สามารถทำลายการ์ดกราฟิก (ในทางใดทางหนึ่ง)? เหตุผลทันทีที่ทำให้ฉันถามคำถามนี้คือ (ไม่แปลกใจ) การ์ดกราฟิกที่แตกของฉันเอง หลังจากซ่อมเสร็จพนักงานบอกว่าพวกเขาทำการทดสอบแอพต่าง ๆ (เกม) และมันก็ใช้ได้ดี แต่เมื่อฉันเปิดตัวแอพของฉันเอง (เลื่อนการสาธิตการแรเงา) มันทำให้อุณหภูมิเพิ่มขึ้นถึง 100 องศาเซลเซียส ดังนั้นการ์ดของฉันจึงไม่ได้รับการแก้ไข แต่สิ่งที่สำคัญที่นี่ก็คือปัญหาดูเหมือนจะเกิดขึ้นเฉพาะเมื่อเรียกใช้แอพของฉันเอง ฉันเล่นเกมที่มีความต้องการ GPU หลายตัว (เช่น Crysis) และมักจะผลักให้ถึงขีด จำกัด และอื่น ๆ (มีการตั้งค่าที่สูงจนเกมวิ่งที่ 5 FPS) มาตรฐานบางอย่างเช่นกัน ... ดังนั้นฉันจึงได้รับ การ์ดของฉันหลายครั้งมีภาระงานมากจนไม่สามารถติดตามได้ …
15 gpu  hardware 

3
ฉันจะควบคุมการคำนวณใดที่ทำบน CPU และที่จะทำบน GPU ได้อย่างไร
ความเข้าใจปัจจุบันของฉันคือสิ่งที่ทำในไฟล์ shader ทำบน GPU และสิ่งที่ทำในโค้ดของฉัน (Java ในกรณีของฉัน) ทำบนซีพียู นี่เป็นคำอธิบายที่ถูกต้องหรือไม่?
14 shaders  gpu 

2
สุ่มหมายเลข hlsl
คุณจะสร้างหมายเลขสุ่มใน HLSL ได้อย่างไร ฉันขอเพราะผมต้องการที่จะลองGPU ray การติดตาม คุณต้องสร้างเส้นทางแบบสุ่มในตัวแบ่งพิกเซล ดังนั้นฉันต้องการrandFloat()ที่ผลคือตัวเลขสุ่มระหว่าง -1 และ +1 นอกจากนี้การจัดการกับคำแนะนำเสียง hlsl คืออะไร? เอกสารบอกว่ามันถูกลบออกจาก HLSL 2.0 ขึ้นไป ทำไม ? ฉันอ่านเกี่ยวกับวิธีการที่คุณเติมพื้นผิวด้วยค่าแบบสุ่มแล้วให้มีการประสานงานพื้นผิวในแต่ละจุดยอดที่มีดัชนีลงในพื้นผิวนั้น แต่นั่นคือจุดสุดยอดต่อฉันต้องการคำแนะนำที่ฉันสามารถโทรหาในส่วนพิกเซลได้ ยิ่งไปกว่านั้นวิธีนี้ต้องใช้ "reseeding" เท็กซัสต่อยอดถ้าคุณต้องการค่าที่แตกต่างกันในแต่ละเฟรมและนั่นต้องใช้การปรับปรุงบัฟเฟอร์เท็กซ์ในแต่ละเฟรม (ซึ่งอาจมีราคาแพง!) ด้วยรายละเอียดคุณจะสร้างตัวเลขสุ่มบน GPU ได้อย่างไร?
13 hlsl  random  gpu 

1
CUDA ของ nVidia เหมาะสมกับการคำนวณการค้นหาเส้นทางหรือไม่?
ฉันอยากรู้ว่ามันคุ้มค่าหรือไม่ที่จะทำการประมวลผล pathfinding บน GPU (โดยใช้ nVidia CUDAหรือเทียบเท่า) ในบางสถานการณ์หรือว่าเป็นความพยายามที่สูญเปล่า สถานการณ์ที่ฉันคิดจะเป็นเซิร์ฟเวอร์ที่มีผู้เล่นหลายคนที่ไม่มีหัวเพื่อทำหน้าที่ค้นหาเส้นทางสำหรับบอท ฉันสนใจ A * pathfinding โดยใช้ mesh navigation แต่ถ้ามีอัลกอริทึม pathfinding อื่นที่จะได้ประโยชน์จากการใช้ GPU ฉันชอบที่จะได้ยินมัน

4
ทำไมคุณถึงใช้การเรนเดอร์ซอฟต์แวร์ผ่านการเรนเดอร์ฮาร์ดแวร์ในวันนี้
ตรงข้ามกับการแสดงผล CPU หรือซอฟต์แวร์ฉันถือว่า? โดยทั่วไปแล้วการแสดงผลในปัจจุบันทั้งหมดจะเป็นไปตาม GPU ใช่ไหมว่าคุณจะใช้ OpenGL หรือ Direct X มีคนให้ข้อมูลฉันที่นี่ไม่พบคำตอบที่เหมาะสมหรือไม่

3
ฉันจะตั้งค่าแอปพลิเคชันของฉันให้ทำงานบน GPU ประสิทธิภาพสูงเป็นค่าเริ่มต้นได้อย่างไร
ปัจจุบันแล็ปท็อปจำนวนมากมาพร้อมกับ GPU 2 ตัวซึ่งเป็นรุ่นที่มีประสิทธิภาพสูงและรุ่นประหยัดพลังงานหนึ่งตัว (มีประสิทธิภาพน้อยลง) แอพพลิเคชั่นส่วนใหญ่ที่ฉันใช้บนแล็ปท็อปของฉันทำงานด้วย GPU ในตัว (ประหยัดพลังงาน) แต่ก็ยังมีบางส่วนที่เปิดไว้พร้อมการ์ดประสิทธิภาพสูง ฉันพยายามกำหนดค่าแอพที่ฉันกำลังสร้างเพื่อให้ทำงานบน GPU ประสิทธิภาพสูงโดยค่าเริ่มต้น แต่ฉันไม่สามารถหาข้อมูลเกี่ยวกับหัวข้อใดก็ได้ ฉันหวังว่าบางคนสามารถหลั่งน้ำตาของแสงนี้ ฉันจะแจกจ่ายแอปพลิเคชันของฉันด้วยโปรแกรมติดตั้ง NSIS และฉันเดาว่าฉันจะต้องเพิ่มเส้นทางของแอปพลิเคชันของฉันไปยังรายการแอปพลิเคชันสำหรับการ์ด NVidia / ATI แอปพลิเคชันได้รับการโปรแกรมใน C # นอกจากนี้ไม่มีใครรู้ว่าสิ่งที่ยืนอยู่กับเดสก์ทอปพีซี? จะเกิดอะไรขึ้นถ้าพีซีมี GPU 2 ตัวและฉันต้องเลือกอันทรงพลังมากขึ้น? Milcho
12 c#  gpu 

1
ข้อมูลเกี่ยวกับการเรนเดอร์แบตช์กราฟิกประสิทธิภาพ ฯลฯ + XNA
ฉันรู้ว่าชื่อค่อนข้างคลุมเครือ แต่ก็ยากที่จะอธิบายสิ่งที่ฉันกำลังมองหา แต่ที่นี่ไป เมื่อพูดถึงการเรนเดอร์ CPU ประสิทธิภาพส่วนใหญ่ง่ายต่อการประมาณและตรงไปตรงมา แต่เมื่อพูดถึง GPU เนื่องจากขาดข้อมูลพื้นฐานทางเทคนิค ฉันใช้ XNA ดังนั้นมันคงจะดีถ้าทฤษฎีนั้นเกี่ยวข้องกับเรื่องนั้น ดังนั้นสิ่งที่ฉันอยากรู้จริง ๆ คืออะไรจะเกิดขึ้นเมื่อใดและที่ไหน (CPU / GPU) เมื่อคุณทำการวาดเฉพาะ ชุดคืออะไร? เอฟเฟกต์การคาดการณ์และอื่น ๆ มีอิทธิพลอย่างไร ข้อมูลยังคงอยู่ในกราฟิกการ์ดหรือถูกถ่ายโอนในทุกขั้นตอนหรือไม่ เมื่อมีการพูดถึงแบนด์วิดธ์คุณกำลังพูดถึงแบนด์วิดธ์ภายในการ์ดกราฟิกหรือไปป์ไลน์จาก CPU ไปยัง GPU หรือไม่? หมายเหตุ:ฉันไม่ได้กำลังมองหาข้อมูลเกี่ยวกับวิธีการวาดเกิดขึ้นนั่นคือธุรกิจของ GPU ฉันสนใจค่าใช้จ่ายทั้งหมดที่อยู่ก่อนหน้านั้น ฉันต้องการที่จะเข้าใจสิ่งที่เกิดขึ้นเมื่อฉันทำการกระทำ X เพื่อปรับสถาปัตยกรรมและการปฏิบัติของฉันให้เป็นแบบนั้น บทความใด ๆ (อาจมีตัวอย่างโค้ด) ข้อมูลลิงค์บทช่วยสอนที่ให้ข้อมูลเชิงลึกมากขึ้นเกี่ยวกับวิธีการเขียนเกมที่ดีขึ้นได้รับการชื่นชมอย่างมาก ขอบคุณ :)

2
สถานที่อ้างอิงของ GPU น่ากังวลหรือไม่
ไม่ท้องที่ของการอ้างอิงให้มากที่สุดเท่าของความแตกต่างกับประสิทธิภาพ GPU มันไม่ประสิทธิภาพของ CPU หรือไม่? ตัวอย่างเช่นถ้าฉันส่งคำสั่งวาด 200 ครั้งไปยัง GPU ฉันจะเห็นความแตกต่างที่เห็นได้ชัดเจนหรือไม่หากข้อมูลสำหรับแต่ละคำสั่งนั้นต่อเนื่องกันในหน่วยความจำแทนที่จะกระโดดไปรอบ ๆ แผนที่บัฟเฟอร์ / พื้นผิว คำถามด้านข้าง: ฉันสมมติว่า GPU ช่วยให้มั่นใจได้ว่าปัญหาการแชร์ที่ผิดพลาดโดยมีทรัพยากรส่วนใหญ่ไม่เปลี่ยน แต่ในกรณีที่พวกเขาไม่ได้นั่นคือเหตุผลที่กระทู้มักจะทำงานที่คุ้มค่าสี่ชิ้น?

2
ฉันต้องกังวลเกี่ยวกับการแสดงผลแบบ quad-based ในสถานการณ์จริงหรือไม่?
ส่วนใหญ่ในบทแรกของหนังสือแบบสุ่มเกี่ยวกับเทคนิคการแรสเตอร์และการเรนเดอร์ฉันพบวลีบางอย่างเกี่ยวกับระบบการเรนเดอร์แบบสามเหลี่ยมและแบบสี่ภาค ฉันไม่เคยเจอ GPU หรือไปป์ไลน์แบบ quad-based ฉันต้องกังวลเกี่ยวกับเรื่องนั้นเมื่อต้องจัดการกับ OpenGL 3.0+ หรือว่าเป็นเพียงแค่ของดั้งเดิม
9 opengl  gpu 

4
พื้นผิวใช้หน่วยความจำใน GPU มากแค่ไหน?
png ขนาดใหญ่บนดิสก์อาจใช้เวลาเพียงสองเมกะไบต์ แต่ฉันคิดว่าใน gpu png เดียวกันจะถูกจัดเก็บในรูปแบบที่ไม่มีการบีบอัดซึ่งใช้พื้นที่มากขึ้น มันเป็นเรื่องจริงเหรอ? ถ้าเป็นจริงพื้นที่เท่าไหร่?
9 xna  textures  gpu 

4
การแปลงรูปทรงเรขาคณิตบน CPU vs GPU
ฉันได้สังเกตเห็นว่าโปรแกรม 3d หลายทำตามปกติเวกเตอร์การคำนวณ / เมทริกซ์เช่นเดียวกับการแปลงทางเรขาคณิตบน CPU มีใครพบความได้เปรียบในการเคลื่อนย้ายการคำนวณเหล่านี้เป็น shaders จุดสุดยอดใน GPU หรือไม่
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.