คำถามติดแท็ก gpu

คำย่อของ "หน่วยประมวลผลกราฟิก" สำหรับการเขียนโปรแกรมแอปพลิเคชันกราฟิกแบบดั้งเดิมโปรดดูรายการแท็กสำหรับ "โปรแกรมกราฟิก" สำหรับการเขียนโปรแกรมวัตถุประสงค์ทั่วไปโดยใช้ GPU โปรดดูรายการแท็กสำหรับ "gpgpu" สำหรับเทคโนโลยีการเขียนโปรแกรม GPU เฉพาะโปรดดูรายการแท็กยอดนิยมสำหรับ "opencl", "cuda" และ "thrust"

27
จะทราบได้อย่างไรว่า tensorflow ใช้การเร่งด้วย gpu จากไพ ธ อนเชลล์
ฉันได้ติดตั้ง tensorflow ใน Ubuntu 16.04 ของฉันโดยใช้คำตอบที่สองที่นี่กับการติดตั้ง cpu builtin apt cuda ตอนนี้คำถามของฉันคือฉันจะทดสอบได้อย่างไรว่ากระบวนการของเทอร์มินัลนั้นใช้ gpu หรือไม่ ฉันมี gtx 960m gpu เมื่อฉันimport tensorflowนี่คือผลลัพธ์ I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 …
303 python  tensorflow  ubuntu  gpu 

4
กาลครั้งหนึ่งเมื่อ> เร็วกว่า <…เดี๋ยวก่อนอะไรนะ?
ฉันกำลังอ่านบทแนะนำ OpenGL ที่ยอดเยี่ยม มันยอดเยี่ยมมากเชื่อใจฉัน หัวข้อที่ฉันอยู่ในขณะนี้คือ Z-buffer นอกเหนือจากการอธิบายว่ามันคืออะไรผู้เขียนกล่าวว่าเราสามารถทำการทดสอบเชิงลึกที่กำหนดเองเช่น GL_LESS, GL_ALWAYS และอื่น ๆ นอกจากนี้เขายังอธิบายว่าความหมายที่แท้จริงของค่าความลึก ที่กำหนดเอง ฉันเข้าใจจนถึง แล้วผู้เขียนก็บอกว่ามีอะไรที่ไม่น่าเชื่อ: ช่วง zNear สามารถมากกว่าช่วง zFar; ถ้าเป็นเช่นนั้นค่าพื้นที่หน้าต่างจะถูกย้อนกลับในแง่ของสิ่งที่ถือว่าใกล้เคียงที่สุดหรือไกลที่สุดจากผู้ชม ก่อนหน้านี้ได้มีการกล่าวว่าค่า Z- ช่องว่างของหน้าต่างอยู่ใกล้ที่สุดและ 1 มากที่สุด อย่างไรก็ตามหากค่าคลิปพื้นที่ Z ของเราถูกลบความลึก 1 จะอยู่ใกล้กับมุมมองมากที่สุดและความลึกของ 0 จะใกล้เคียงที่สุด แต่ถ้าเราพลิกทิศทางของการทดสอบความลึก (GL_LESS ถึง GL_GREATER ฯลฯ ) เราจะได้ผลลัพธ์เดียวกัน มันเป็นเพียงแค่การประชุมเท่านั้น อันที่จริงการพลิกเครื่องหมายของ Z และการทดสอบเชิงลึกนั้นครั้งหนึ่งเคยเป็นการเพิ่มประสิทธิภาพที่สำคัญสำหรับเกมจำนวนมาก ถ้าฉันเข้าใจอย่างถูกต้องฉลาดหลักแหลมการพลิกเครื่องหมายของ Z และการทดสอบเชิงลึกคืออะไร แต่การเปลี่ยนการ&lt;เปรียบเทียบกับการ&gt;เปรียบเทียบ ดังนั้นหากฉันเข้าใจอย่างถูกต้องและผู้แต่งไม่ได้โกหกหรือทำสิ่งต่าง ๆ ขึ้นมาการเปลี่ยนแปลง&lt;ที่&gt;เคยเป็นสิ่งสำคัญที่สุดสำหรับหลาย …
280 c  optimization  opengl  cpu  gpu 

15
NVIDIA NVML Driver / รุ่นไลบรารีไม่ตรงกัน
เมื่อฉันเรียกใช้nvidia-smiฉันได้รับข้อความต่อไปนี้: Failed to initialize NVML: Driver/library version mismatch หนึ่งชั่วโมงที่ผ่านมาฉันได้รับข้อความเดียวกันและถอนการติดตั้งไลบรารี cuda ของฉันและฉันสามารถเรียกใช้nvidia-smiโดยรับผลลัพธ์ต่อไปนี้: หลังจากนี้ฉันดาวน์โหลดcuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.debจากหน้า NVIDIA อย่างเป็นทางการแล้วเพียง: sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} ตอนนี้ฉันติดตั้ง cuda แล้ว แต่ฉันพบข้อผิดพลาดที่ไม่ตรงกัน ข้อมูลที่อาจเป็นประโยชน์: เล่นcat /proc/driver/nvidia/versionผมจะได้รับ: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: …
233 cuda  driver  gpu  nvidia 

9
คำแนะนำเกี่ยวกับการเขียนโปรแกรม GPU [ปิด]
ปิด คำถามนี้เป็นคำถามความคิดเห็นตาม ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้สามารถตอบข้อเท็จจริงและการอ้างอิงได้โดยแก้ไขโพสต์นี้ ปิดให้บริการใน5 ปีที่ผ่านมา ปรับปรุงคำถามนี้ ทุกคนมีซูเปอร์คอมพิวเตอร์ขนาดใหญ่ที่ขนานกันอย่างหนาแน่นบนเดสก์ท็อปในรูปแบบของกราฟิกการ์ด GPU "สวัสดีโลก" เทียบเท่ากับชุมชน GPU คืออะไร? ฉันจะทำอย่างไรฉันจะไปเริ่มต้นเขียนโปรแกรม GPU สำหรับผู้จำหน่าย GPU รายใหญ่ได้อย่างไร อดัม
176 gpu 

10
วิธีรับ GPU ที่มีอยู่ในปัจจุบันในเทนเซอร์กระแส?
ฉันมีแผนที่จะใช้ TensorFlow แบบกระจายและฉันเห็น TensorFlow สามารถใช้ GPU สำหรับการฝึกอบรมและการทดสอบ ในสภาพแวดล้อมแบบคลัสเตอร์เครื่องแต่ละเครื่องสามารถมี 0 หรือ 1 หรือมากกว่า GPU และฉันต้องการที่จะเรียกใช้กราฟ TensorFlow ของฉันลงใน GPU บนเครื่องให้ได้มากที่สุด ฉันพบว่าเมื่อใช้tf.Session()TensorFlow ให้ข้อมูลเกี่ยวกับ GPU ในข้อความบันทึกดังนี้: I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) -&gt; (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0) คำถามของฉันคือฉันจะรับข้อมูลเกี่ยวกับ GPU ที่มีอยู่ในปัจจุบันจาก …
165 python  gpu  tensorflow 

10
จะตรวจสอบว่า pytorch ใช้ GPU ได้อย่างไร?
ฉันต้องการทราบว่าpytorchใช้ GPU ของฉันหรือไม่ เป็นไปได้ที่จะตรวจสอบด้วยnvidia-smiหากมีกิจกรรมใด ๆ จาก GPU ในระหว่างกระบวนการ แต่ฉันต้องการสิ่งที่เขียนในpythonสคริปต์ มีวิธีทำเช่นนั้นหรือไม่?

14
การใช้ GPU กับ c # [ปิด]
ปิด. คำถามนี้ไม่เป็นไปตามหลักเกณฑ์กองมากเกิน ขณะนี้ยังไม่ยอมรับคำตอบ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นหัวข้อสำหรับ Stack Overflow ปิดให้บริการใน3 ปีที่ผ่านมา ปรับปรุงคำถามนี้ ฉันพยายามดึงพลังการประมวลผลออกจากกริดมากขึ้น ฉันใช้ cpus / cores ทั้งหมดเป็นไปได้ไหมที่จะใช้ GPU กับ C # มีใครรู้จักห้องสมุดหรือมีโค้ดตัวอย่างบ้างไหม
136 c#  gpu  gpgpu 

3
ฉันจะเลือกขนาดกริดและบล็อกสำหรับเมล็ด CUDA ได้อย่างไร
นี่เป็นคำถามเกี่ยวกับวิธีกำหนดขนาดกริดบล็อกและเธรด CUDA นี่เป็นคำถามที่เพิ่มเติมให้กับคนที่โพสต์ที่นี่ ตามลิงค์นี้คำตอบจากกรงเล็บมีข้อมูลโค้ด (ดูด้านล่าง) ฉันไม่เข้าใจความคิดเห็น "ค่ามักจะถูกเลือกโดยการปรับแต่งและข้อ จำกัด ของฮาร์ดแวร์" ฉันไม่พบคำอธิบายที่ดีหรือคำชี้แจงที่อธิบายเรื่องนี้ในเอกสาร CUDA โดยสรุปคำถามของฉันคือวิธีกำหนดblocksize(จำนวนเธรด) ที่เหมาะสมที่สุดโดยใช้รหัสต่อไปนี้: const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd&lt;&lt;&lt;nblocks,blocksize&gt;&gt;&gt;mAdd(A,B,C,n);

9
Google Colaboratory: ข้อมูลที่ทำให้เข้าใจผิดเกี่ยวกับ GPU (มี RAM เพียง 5% สำหรับผู้ใช้บางราย)
อัปเดต: คำถามนี้เกี่ยวข้องกับ "การตั้งค่าโน้ตบุ๊ค: ตัวเร่งฮาร์ดแวร์: GPU" ของ Google Colab คำถามนี้เขียนขึ้นก่อนที่จะเพิ่มตัวเลือก "TPU" อ่านประกาศตื่นเต้นหลายเกี่ยวกับ Google Colaboratory ให้ฟรี Tesla GPU K80 ผมพยายามที่จะเรียกใช้fast.aiบทเรียนเกี่ยวกับมันมันจะไม่สมบูรณ์ - ได้อย่างรวดเร็ววิ่งออกมาจากหน่วยความจำ ฉันเริ่มตรวจสอบสาเหตุ บรรทัดล่างคือ“ ฟรี Tesla K80” ไม่ใช่“ ฟรี” สำหรับทุกคน - สำหรับบางส่วนเท่านั้นที่เป็น "ฟรี" ฉันเชื่อมต่อกับ Google Colab จาก West Coast Canada และได้รับเพียง 0.5GB ของสิ่งที่ควรจะเป็น GPU RAM 24GB ผู้ใช้รายอื่นสามารถเข้าถึง GPU RAM ขนาด 11GB เห็นได้ชัดว่า …

7
GPU Emulator สำหรับการเขียนโปรแกรม CUDA โดยไม่ต้องใช้ฮาร์ดแวร์ [ปิด]
ปิด. คำถามนี้ไม่เป็นไปตามหลักเกณฑ์กองมากเกิน ขณะนี้ยังไม่ยอมรับคำตอบ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นหัวข้อสำหรับ Stack Overflow ปิดให้บริการเมื่อปีที่แล้ว ปรับปรุงคำถามนี้ คำถาม: มีอีมูเลเตอร์สำหรับการ์ด Geforce ที่อนุญาตให้ฉันตั้งโปรแกรมและทดสอบ CUDA โดยไม่ต้องมีฮาร์ดแวร์จริงหรือไม่? ข้อมูล: ฉันต้องการเร่งการจำลองของฉันใน CUDA แต่ปัญหาของฉันคือฉันไม่ได้อยู่ใกล้เดสก์ท็อปของฉันในการพัฒนานี้ ฉันต้องการทำงานบนเน็ตบุ๊กแทน แต่เน็ตบุ๊กของฉันไม่มี GPU เท่าที่ฉันรู้คุณต้องมี GPU ที่รองรับ CUDA เพื่อเรียกใช้ CUDA มีวิธีแก้ปัญหานี้หรือไม่? ดูเหมือนว่าวิธีเดียวคือตัวจำลอง GPU (ซึ่งเห็นได้ชัดว่าจะช้าอย่างเจ็บปวด แต่ก็ใช้งานได้) แต่ไม่ว่าจะทำด้วยวิธีใดฉันก็อยากได้ยิน ฉันกำลังเขียนโปรแกรมบน Ubuntu 10.04 LTS
111 cuda  gpu  emulation  cpu 

5
ฉันสามารถเรียกใช้ CUDA บนโปรเซสเซอร์กราฟิกรวมของ Intel ได้หรือไม่
ฉันมีแล็ปท็อป Toshiba ที่เรียบง่ายพร้อมโปรเซสเซอร์ i3 นอกจากนี้ฉันไม่มีกราฟิกการ์ดราคาแพง ในการตั้งค่าการแสดงผลฉันเห็นกราฟิก Intel (HD)เป็นการ์ดแสดงผล ฉันกำลังวางแผนที่จะเรียนรู้การเขียนโปรแกรม cuda แต่ฉันไม่แน่ใจว่าฉันสามารถทำได้บนแล็ปท็อปของฉันหรือไม่เพราะมันไม่มี GPU ที่เปิดใช้งาน cuda ของ nvidia อันที่จริงฉันสงสัยว่าถ้าฉันมี GPU o_o ดังนั้นฉันจะขอบคุณถ้ามีคนบอกฉันได้ว่าฉันสามารถเขียนโปรแกรม CUDA ด้วยการกำหนดค่าปัจจุบันได้หรือไม่และถ้าเป็นไปได้โปรดแจ้งให้ฉันทราบว่ากราฟิก Intel (HD)หมายถึงอะไร

1
RuntimeError: ประเภทอินพุต (torch.FloatTensor) และประเภทน้ำหนัก (torch.cuda.FloatTensor) ควรเหมือนกัน
ฉันพยายามฝึก CNN ต่อไปนี้ แต่ฉันได้รับข้อผิดพลาดเดียวกันกับ. cuda () และฉันไม่แน่ใจว่าจะแก้ไขได้อย่างไร นี่คือโค้ดของฉันตอนนี้ import matplotlib.pyplot as plt import numpy as np import torch from torch import nn from torch import optim import torch.nn.functional as F import torchvision from torchvision import datasets, transforms, models from torch.utils.data.sampler import SubsetRandomSampler data_dir = "/home/ubuntu/ML2/ExamII/train2/" valid_size = .2 # Normalize …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.