คำถามติดแท็ก nvidia

15
NVIDIA NVML Driver / รุ่นไลบรารีไม่ตรงกัน
เมื่อฉันเรียกใช้nvidia-smiฉันได้รับข้อความต่อไปนี้: Failed to initialize NVML: Driver/library version mismatch หนึ่งชั่วโมงที่ผ่านมาฉันได้รับข้อความเดียวกันและถอนการติดตั้งไลบรารี cuda ของฉันและฉันสามารถเรียกใช้nvidia-smiโดยรับผลลัพธ์ต่อไปนี้: หลังจากนี้ฉันดาวน์โหลดcuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.debจากหน้า NVIDIA อย่างเป็นทางการแล้วเพียง: sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} ตอนนี้ฉันติดตั้ง cuda แล้ว แต่ฉันพบข้อผิดพลาดที่ไม่ตรงกัน ข้อมูลที่อาจเป็นประโยชน์: เล่นcat /proc/driver/nvidia/versionผมจะได้รับ: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: …
233 cuda  driver  gpu  nvidia 

2
การทำความเข้าใจมิติกริดของ CUDA ขนาดบล็อกและการจัดระเบียบเธรด (คำอธิบายง่ายๆ) [ปิด]
ปิด คำถามนี้จะต้องมีมากขึ้นมุ่งเน้น ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้มุ่งเน้นที่ปัญหาเดียวโดยแก้ไขโพสต์นี้ ปิดให้บริการใน2 ปีที่ผ่านมา ปรับปรุงคำถามนี้ เธรดมีการจัดการที่จะดำเนินการโดย GPU อย่างไร?
161 cuda  nvidia 

10
จะตรวจสอบว่า pytorch ใช้ GPU ได้อย่างไร?
ฉันต้องการทราบว่าpytorchใช้ GPU ของฉันหรือไม่ เป็นไปได้ที่จะตรวจสอบด้วยnvidia-smiหากมีกิจกรรมใด ๆ จาก GPU ในระหว่างกระบวนการ แต่ฉันต้องการสิ่งที่เขียนในpythonสคริปต์ มีวิธีทำเช่นนั้นหรือไม่?

2
CUDA บล็อก / warps / threads แผนที่บนแกน CUDA ได้อย่างไร
ฉันใช้ CUDA มาหลายสัปดาห์แล้ว แต่ฉันมีข้อสงสัยเกี่ยวกับการจัดสรรบล็อก / warps / thread ฉันกำลังศึกษาสถาปัตยกรรมจากมุมมองการสอน (โครงการมหาวิทยาลัย) ดังนั้นการเข้าถึงประสิทธิภาพสูงสุดจึงไม่ใช่สิ่งที่ฉันกังวล ก่อนอื่นฉันอยากจะเข้าใจถ้าฉันได้รับข้อมูลตรงนี้: โปรแกรมเมอร์เขียนเคอร์เนลและจัดระเบียบการดำเนินการในกริดของบล็อกเธรด แต่ละบล็อกถูกกำหนดให้กับ Streaming Multiprocessor (SM) เมื่อกำหนดแล้วจะไม่สามารถโยกย้ายไปยัง SM อื่นได้ SM แต่ละตัวแยกบล็อกของตัวเองออกเป็น Warps (ปัจจุบันมีขนาดสูงสุด 32 เธรด) เธรดทั้งหมดในวิปริตดำเนินการพร้อมกันกับทรัพยากรของ SM การดำเนินการจริงของเธรดนั้นดำเนินการโดย CUDA Cores ที่อยู่ใน SM ไม่มีการแมปเฉพาะระหว่างเธรดและแกน ถ้าวาร์ปประกอบด้วยเธรด 20 เธรด แต่ในปัจจุบันมีเพียง 16 คอร์ที่ใช้ได้วิปริตจะไม่ทำงาน ในทางกลับกันหากบล็อกมี 48 เธรดบล็อกจะถูกแยกออกเป็น 2 วาร์ปและจะดำเนินการควบคู่กันโดยมีหน่วยความจำเพียงพอ หากเธรดเริ่มทำงานบนคอร์นั้นจะถูกหยุดทำงานเพื่อเข้าถึงหน่วยความจำหรือสำหรับการดำเนินการจุดลอยตัวที่ยาวนาน พวกเขาถูกต้องหรือไม่ ตอนนี้ฉันมี GeForce 560 …

3
ฉันจะเลือกขนาดกริดและบล็อกสำหรับเมล็ด CUDA ได้อย่างไร
นี่เป็นคำถามเกี่ยวกับวิธีกำหนดขนาดกริดบล็อกและเธรด CUDA นี่เป็นคำถามที่เพิ่มเติมให้กับคนที่โพสต์ที่นี่ ตามลิงค์นี้คำตอบจากกรงเล็บมีข้อมูลโค้ด (ดูด้านล่าง) ฉันไม่เข้าใจความคิดเห็น "ค่ามักจะถูกเลือกโดยการปรับแต่งและข้อ จำกัด ของฮาร์ดแวร์" ฉันไม่พบคำอธิบายที่ดีหรือคำชี้แจงที่อธิบายเรื่องนี้ในเอกสาร CUDA โดยสรุปคำถามของฉันคือวิธีกำหนดblocksize(จำนวนเธรด) ที่เหมาะสมที่สุดโดยใช้รหัสต่อไปนี้: const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd<<<nblocks,blocksize>>>mAdd(A,B,C,n);

10
NVIDIA vs AMD: ประสิทธิภาพ GPGPU
ฉันต้องการรับฟังความคิดเห็นจากผู้ที่มีประสบการณ์ในการเขียนโค้ดสำหรับทั้งคู่ ตัวฉันเองมีประสบการณ์กับ NVIDIA เท่านั้น ดูเหมือนว่า NVIDIA CUDA จะได้รับความนิยมมากกว่าคู่แข่ง (เพียงแค่นับแท็กคำถามในฟอรัมนี้ 'cuda' มีประสิทธิภาพดีกว่า 'opencl' 3: 1 และ 'nvidia' มีประสิทธิภาพสูงกว่า 'ati' 15: 1 และไม่มีแท็กสำหรับ 'ati-stream' เลย) ในทางกลับกันตาม Wikipedia การ์ด ATI / AMD ควรมีศักยภาพมากกว่านี้มากโดยเฉพาะต่อดอลลาร์ การ์ด NVIDIA ที่เร็วที่สุดในตลาด ณ วันนี้ GeForce 580 ($ 500) ได้รับการจัดอันดับที่ 1.6 single-precision TFlops AMD Radeon 6970 สามารถซื้อได้ในราคา $ 370 และได้รับการจัดอันดับที่ …
105 cuda  opencl  gpgpu  nvidia  ati 

5
ความขัดแย้งของธนาคารคืออะไร? (การเขียนโปรแกรม Cuda / OpenCL)
ฉันอ่านคู่มือการเขียนโปรแกรมสำหรับ CUDA และ OpenCL แล้วและฉันไม่สามารถเข้าใจได้ว่าความขัดแย้งของธนาคารคืออะไร พวกเขาเพียงแค่ดำน้ำลงไปในวิธีการแก้ปัญหาโดยไม่ต้องลงรายละเอียดในเรื่องนั้น ๆ ใครสามารถช่วยฉันเข้าใจได้ไหม ฉันไม่ต้องการหากความช่วยเหลืออยู่ในบริบทของ CUDA / OpenCL หรือเพียงแค่ความขัดแย้งของธนาคารโดยทั่วไปในวิทยาการคอมพิวเตอร์

1
ไม่สามารถเรียกใช้แอป JavaFX ที่ docker ได้นานกว่าสองสามนาที
ฉันพัฒนาแอปพลิเคชั่นที่ใช้เป็นบริการสื่อสารสำหรับเว็บแอปแยกต่างหาก ฉันมีปัญหา 0 ข้อที่ "เทียบเคียง" แอปพลิเคชันเว็บ แต่บริการกำลังพิสูจน์แล้วว่าเป็นฝันร้าย มันขึ้นอยู่กับ JavaFX และมีคุณสมบัติที่ผู้ใช้สามารถตั้งค่าได้ในไฟล์ปรับแต่งที่ทำให้แอปไม่เริ่มต้น windows, เมนู, คอนเทนเนอร์, ฯลฯ โหมด "หัวขาด" นี้ (ไม่แน่ใจว่าเป็นจริง หัวขาด ... ) เปลี่ยนแอปบริการเป็นบริการพื้นหลังอย่างมีประสิทธิภาพ ให้ฉันนำหน้านี้ด้วยการบอกว่าแอพทำงานได้อย่างไร้ที่ติเมื่อทำงานบนเครื่อง windows 10 ของฉันและฉันได้ติดตั้งไว้ในเครื่องอื่น ๆ อีกหลายเครื่อง (ไม่มีการเทียบชิดขอบทั้งหมด) โดยไม่มีปัญหา นี่คือ dockerfile ฉันมากับ: FROM openjdk:13.0.1-slim RUN apt-get update && apt-get install libgtk-3-0 libglu1-mesa -y && apt-get update VOLUME /tmp ADD …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.