คำถามติดแท็ก cuda

CUDA (Compute Unified Device Architecture) เป็นแพลตฟอร์มการประมวลผลแบบขนานและรูปแบบการเขียนโปรแกรมสำหรับ NVIDIA GPUs (หน่วยประมวลผลกราฟิก) CUDA ให้อินเทอร์เฟซสำหรับ NVIDIA GPU ผ่านภาษาโปรแกรมไลบรารีและ API ที่หลากหลาย

17
วิธีรับเวอร์ชัน cuda
มีคำสั่งหรือสคริปต์ที่รวดเร็วในการตรวจสอบเวอร์ชันของ CUDA ที่ติดตั้งหรือไม่ ฉันพบคู่มือ 4.0 ภายใต้ไดเรกทอรีการติดตั้ง แต่ฉันไม่แน่ใจว่าเป็นรุ่นที่ติดตั้งจริงหรือไม่
473 cuda 

4
วิธีการทางบัญญัติในการตรวจสอบข้อผิดพลาดโดยใช้ CUDA runtime API คืออะไร
เมื่อดูถึงคำตอบและความคิดเห็นเกี่ยวกับคำถาม CUDA และในแท็ก CUDA ของ Wikiฉันเห็นว่าบ่อยครั้งจะแนะนำว่าสถานะการส่งคืนการเรียก API ทุกครั้งควรตรวจสอบข้อผิดพลาด เอกสาร API ที่มีฟังก์ชั่นเช่นcudaGetLastError, cudaPeekAtLastErrorและcudaGetErrorStringแต่สิ่งที่เป็นวิธีที่ดีที่สุดที่จะใส่กันเหล่านี้ได้อย่างน่าเชื่อถือจับและรายงานข้อผิดพลาดโดยไม่ต้องมีจำนวนมากรหัสพิเศษ?

15
NVIDIA NVML Driver / รุ่นไลบรารีไม่ตรงกัน
เมื่อฉันเรียกใช้nvidia-smiฉันได้รับข้อความต่อไปนี้: Failed to initialize NVML: Driver/library version mismatch หนึ่งชั่วโมงที่ผ่านมาฉันได้รับข้อความเดียวกันและถอนการติดตั้งไลบรารี cuda ของฉันและฉันสามารถเรียกใช้nvidia-smiโดยรับผลลัพธ์ต่อไปนี้: หลังจากนี้ฉันดาวน์โหลดcuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.debจากหน้า NVIDIA อย่างเป็นทางการแล้วเพียง: sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} ตอนนี้ฉันติดตั้ง cuda แล้ว แต่ฉันพบข้อผิดพลาดที่ไม่ตรงกัน ข้อมูลที่อาจเป็นประโยชน์: เล่นcat /proc/driver/nvidia/versionผมจะได้รับ: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: …
233 cuda  driver  gpu  nvidia 

6
TensorFlow และ CUDA เวอร์ชันใดบ้างที่เข้ากันได้
ฉันสังเกตเห็นว่า TensorFlow เวอร์ชันใหม่บางรุ่นไม่สามารถใช้งานร่วมกับ CUDA และ cuDNN เวอร์ชันเก่าได้ มีภาพรวมของเวอร์ชันที่เข้ากันได้หรือแม้แต่รายการชุดค่าผสมที่ทดสอบอย่างเป็นทางการหรือไม่ หาไม่พบในเอกสาร TensorFlow

8
ใช้ GPU จากตู้เทียบท่า?
ฉันกำลังค้นหาวิธีใช้ GPU จากภายในคอนเทนเนอร์นักเทียบท่า คอนเทนเนอร์จะรันโค้ดโดยพลการดังนั้นฉันไม่ต้องการใช้โหมดพิเศษ เคล็ดลับใด ๆ จากการวิจัยก่อนหน้านี้ฉันเข้าใจว่าrun -vและ / หรือ LXC cgroupเป็นวิธีที่จะไป แต่ฉันไม่แน่ใจว่าจะดึงมันออกมาได้อย่างไร
164 cuda  docker 

2
การทำความเข้าใจมิติกริดของ CUDA ขนาดบล็อกและการจัดระเบียบเธรด (คำอธิบายง่ายๆ) [ปิด]
ปิด คำถามนี้จะต้องมีมากขึ้นมุ่งเน้น ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้มุ่งเน้นที่ปัญหาเดียวโดยแก้ไขโพสต์นี้ ปิดให้บริการใน2 ปีที่ผ่านมา ปรับปรุงคำถามนี้ เธรดมีการจัดการที่จะดำเนินการโดย GPU อย่างไร?
161 cuda  nvidia 

7
จะตรวจสอบการติดตั้ง CuDNN ได้อย่างไร?
ฉันค้นหาสถานที่หลายแห่ง แต่สิ่งที่ฉันได้รับทั้งหมดคือวิธีติดตั้งไม่ใช่วิธีการตรวจสอบว่าติดตั้งแล้ว ฉันสามารถตรวจสอบว่าติดตั้งไดรเวอร์ NVIDIA แล้วและติดตั้ง CUDA แล้ว แต่ฉันไม่ทราบวิธีการตรวจสอบว่ามีการติดตั้ง CuDNN หรือไม่ ความช่วยเหลือจะได้รับการชื่นชมมากขอบคุณ! PS นี่คือสำหรับการใช้งาน caffe ขณะนี้ทุกอย่างทำงานโดยไม่เปิดใช้งาน CuDNN

4
การใช้ Java กับ Nvidia GPUs (CUDA)
ฉันกำลังทำงานในโครงการธุรกิจที่ทำใน Java และต้องการพลังการคำนวณขนาดใหญ่เพื่อคำนวณตลาดธุรกิจ คณิตศาสตร์ง่าย ๆ แต่มีข้อมูลจำนวนมหาศาล เราสั่งให้ CUDA GPUs ลองด้วยและเนื่องจาก Java ไม่รองรับ CUDA ฉันจึงสงสัยว่าจะเริ่มต้นอย่างไร ฉันควรสร้างอินเตอร์เฟส JNI หรือไม่ ฉันควรใช้ JCUDA หรือมีวิธีอื่นหรือไม่? ฉันไม่มีประสบการณ์ในสาขานี้และฉันต้องการถ้ามีคนสามารถชี้แนะทางให้ฉันเพื่อให้ฉันสามารถเริ่มค้นคว้าและเรียนรู้ได้

2
CUDA บล็อก / warps / threads แผนที่บนแกน CUDA ได้อย่างไร
ฉันใช้ CUDA มาหลายสัปดาห์แล้ว แต่ฉันมีข้อสงสัยเกี่ยวกับการจัดสรรบล็อก / warps / thread ฉันกำลังศึกษาสถาปัตยกรรมจากมุมมองการสอน (โครงการมหาวิทยาลัย) ดังนั้นการเข้าถึงประสิทธิภาพสูงสุดจึงไม่ใช่สิ่งที่ฉันกังวล ก่อนอื่นฉันอยากจะเข้าใจถ้าฉันได้รับข้อมูลตรงนี้: โปรแกรมเมอร์เขียนเคอร์เนลและจัดระเบียบการดำเนินการในกริดของบล็อกเธรด แต่ละบล็อกถูกกำหนดให้กับ Streaming Multiprocessor (SM) เมื่อกำหนดแล้วจะไม่สามารถโยกย้ายไปยัง SM อื่นได้ SM แต่ละตัวแยกบล็อกของตัวเองออกเป็น Warps (ปัจจุบันมีขนาดสูงสุด 32 เธรด) เธรดทั้งหมดในวิปริตดำเนินการพร้อมกันกับทรัพยากรของ SM การดำเนินการจริงของเธรดนั้นดำเนินการโดย CUDA Cores ที่อยู่ใน SM ไม่มีการแมปเฉพาะระหว่างเธรดและแกน ถ้าวาร์ปประกอบด้วยเธรด 20 เธรด แต่ในปัจจุบันมีเพียง 16 คอร์ที่ใช้ได้วิปริตจะไม่ทำงาน ในทางกลับกันหากบล็อกมี 48 เธรดบล็อกจะถูกแยกออกเป็น 2 วาร์ปและจะดำเนินการควบคู่กันโดยมีหน่วยความจำเพียงพอ หากเธรดเริ่มทำงานบนคอร์นั้นจะถูกหยุดทำงานเพื่อเข้าถึงหน่วยความจำหรือสำหรับการดำเนินการจุดลอยตัวที่ยาวนาน พวกเขาถูกต้องหรือไม่ ตอนนี้ฉันมี GeForce 560 …


3
CUDA เวอร์ชันต่างๆที่แสดงโดย nvcc และ NVIDIA-smi
ฉันสับสนมากกับ CUDA เวอร์ชันต่างๆที่แสดงโดยการเรียกใช้which nvccและnvidia-smi. ฉันติดตั้งทั้ง cuda9.2 และ cuda10 บน ubuntu 16.04 ของฉัน ตอนนี้ฉันตั้งค่า PATH ให้ชี้ไปที่ cuda9.2 ดังนั้นเมื่อฉันวิ่ง: $ which nvcc /usr/local/cuda-9.2/bin/nvcc อย่างไรก็ตามเมื่อฉันวิ่ง $ nvidia-smi Wed Nov 21 19:41:32 2018 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 410.72 Driver Version: 410.72 CUDA Version: 10.0 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. …
122 cuda 

3
ฉันจะเลือกขนาดกริดและบล็อกสำหรับเมล็ด CUDA ได้อย่างไร
นี่เป็นคำถามเกี่ยวกับวิธีกำหนดขนาดกริดบล็อกและเธรด CUDA นี่เป็นคำถามที่เพิ่มเติมให้กับคนที่โพสต์ที่นี่ ตามลิงค์นี้คำตอบจากกรงเล็บมีข้อมูลโค้ด (ดูด้านล่าง) ฉันไม่เข้าใจความคิดเห็น "ค่ามักจะถูกเลือกโดยการปรับแต่งและข้อ จำกัด ของฮาร์ดแวร์" ฉันไม่พบคำอธิบายที่ดีหรือคำชี้แจงที่อธิบายเรื่องนี้ในเอกสาร CUDA โดยสรุปคำถามของฉันคือวิธีกำหนดblocksize(จำนวนเธรด) ที่เหมาะสมที่สุดโดยใช้รหัสต่อไปนี้: const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd<<<nblocks,blocksize>>>mAdd(A,B,C,n);

7
GPU Emulator สำหรับการเขียนโปรแกรม CUDA โดยไม่ต้องใช้ฮาร์ดแวร์ [ปิด]
ปิด. คำถามนี้ไม่เป็นไปตามหลักเกณฑ์กองมากเกิน ขณะนี้ยังไม่ยอมรับคำตอบ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นหัวข้อสำหรับ Stack Overflow ปิดให้บริการเมื่อปีที่แล้ว ปรับปรุงคำถามนี้ คำถาม: มีอีมูเลเตอร์สำหรับการ์ด Geforce ที่อนุญาตให้ฉันตั้งโปรแกรมและทดสอบ CUDA โดยไม่ต้องมีฮาร์ดแวร์จริงหรือไม่? ข้อมูล: ฉันต้องการเร่งการจำลองของฉันใน CUDA แต่ปัญหาของฉันคือฉันไม่ได้อยู่ใกล้เดสก์ท็อปของฉันในการพัฒนานี้ ฉันต้องการทำงานบนเน็ตบุ๊กแทน แต่เน็ตบุ๊กของฉันไม่มี GPU เท่าที่ฉันรู้คุณต้องมี GPU ที่รองรับ CUDA เพื่อเรียกใช้ CUDA มีวิธีแก้ปัญหานี้หรือไม่? ดูเหมือนว่าวิธีเดียวคือตัวจำลอง GPU (ซึ่งเห็นได้ชัดว่าจะช้าอย่างเจ็บปวด แต่ก็ใช้งานได้) แต่ไม่ว่าจะทำด้วยวิธีใดฉันก็อยากได้ยิน ฉันกำลังเขียนโปรแกรมบน Ubuntu 10.04 LTS
111 cuda  gpu  emulation  cpu 


10
NVIDIA vs AMD: ประสิทธิภาพ GPGPU
ฉันต้องการรับฟังความคิดเห็นจากผู้ที่มีประสบการณ์ในการเขียนโค้ดสำหรับทั้งคู่ ตัวฉันเองมีประสบการณ์กับ NVIDIA เท่านั้น ดูเหมือนว่า NVIDIA CUDA จะได้รับความนิยมมากกว่าคู่แข่ง (เพียงแค่นับแท็กคำถามในฟอรัมนี้ 'cuda' มีประสิทธิภาพดีกว่า 'opencl' 3: 1 และ 'nvidia' มีประสิทธิภาพสูงกว่า 'ati' 15: 1 และไม่มีแท็กสำหรับ 'ati-stream' เลย) ในทางกลับกันตาม Wikipedia การ์ด ATI / AMD ควรมีศักยภาพมากกว่านี้มากโดยเฉพาะต่อดอลลาร์ การ์ด NVIDIA ที่เร็วที่สุดในตลาด ณ วันนี้ GeForce 580 ($ 500) ได้รับการจัดอันดับที่ 1.6 single-precision TFlops AMD Radeon 6970 สามารถซื้อได้ในราคา $ 370 และได้รับการจัดอันดับที่ …
105 cuda  opencl  gpgpu  nvidia  ati 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.