คำถามติดแท็ก pytorch

1
PyTorch vs. Tensorflow Fold
ทั้งPyTorchและTensorflow Foldเป็นเฟรมเวิร์กการเรียนรู้ลึกซึ่งหมายถึงการจัดการกับสถานการณ์ที่ข้อมูลอินพุตมีความยาวหรือขนาดที่ไม่สม่ำเสมอ (นั่นคือสถานการณ์ที่กราฟแบบไดนามิกมีประโยชน์หรือจำเป็น) ฉันต้องการรู้ว่าพวกเขาเปรียบเทียบอย่างไรในแง่ของกรอบความคิดที่พวกเขาพึ่งพา (เช่นการแบตช์แบบไดนามิก) และความหมายของสิ่งต่าง ๆ ที่สามารถ / ไม่สามารถนำไปใช้ในแต่ละจุดอ่อน / จุดแข็ง ฯลฯ ฉันตั้งใจจะใช้ข้อมูลนี้เพื่อเลือกหนึ่งในนั้นเพื่อเริ่มสำรวจกราฟการคำนวณแบบไดนามิก แต่ฉันไม่มีงานเฉพาะในใจ หมายเหตุ 1: กรอบกราฟการคำนวณแบบไดนามิกอื่น ๆ เช่นDyNetหรือChainerก็ยินดีต้อนรับในการเปรียบเทียบ แต่ฉันต้องการมุ่งเน้นไปที่ PyTorch และ Tensorflow Fold เพราะฉันคิดว่าพวกเขา / จะเป็นคนที่ใช้มากที่สุด หมายเหตุ 2: ฉันได้พบแฮ็คข่าวนี้ใน PyTorchด้วยข้อมูลที่กระจัดกระจาย แต่ไม่มากนัก หมายเหตุ 3: หัวข้อแฮ็กข่าวใหม่ที่เกี่ยวข้องเกี่ยวกับ Tensorflow Fold ที่มีข้อมูลบางอย่างเกี่ยวกับวิธีการเปรียบเทียบ หมายเหตุ 4: ที่เกี่ยวข้องด้าย Reddit หมายเหตุ 5: ข้อผิดพลาดที่เกี่ยวข้องใน Github ของ Tensorflow Foldที่ระบุข้อ …

2
การใช้ torch.no_grad ใน pytorch คืออะไร
ฉันใหม่เพื่อ pytorch และเริ่มต้นด้วยการนี้รหัส GitHub ฉันไม่เข้าใจความคิดเห็นในบรรทัด 60-61 "because weights have requires_grad=True, but we don't need to track this in autograd"ในรหัส ฉันเข้าใจว่าเราพูดถึงrequires_grad=Trueตัวแปรที่เราต้องคำนวณการไล่ระดับสีสำหรับการใช้ autograd แต่มันหมายความว่า"tracked by autograd"อย่างไร
21 pytorch 

1
PyTorch vs. Tensorflow กระตือรือร้น
เมื่อเร็ว ๆ นี้ Google รวมอยู่ในการสร้างโหมดEagerซึ่งเป็น API ที่จำเป็นสำหรับการเข้าถึงความสามารถในการคำนวณ tensorflow tensorflow กระตือรือร้นอย่างไรเปรียบเทียบกับ PyTorch บางแง่มุมที่อาจส่งผลต่อการเปรียบเทียบคือ: ข้อดีและข้อเสียของความกระตือรือร้นเนื่องจากกราฟแบบคงที่ (เช่นชื่อในโหนด) ข้อ จำกัด ที่แท้จริงของข้อใดข้อหนึ่งที่ไม่ได้มี พื้นที่ที่หนึ่งในนั้นต้องการการปรับปรุง (เช่นความสมบูรณ์ของคุณสมบัติการเพิ่มประสิทธิภาพการคำนวณ) ความแตกต่างของระบบนิเวศ (เช่นเมตริกซ์หรือไม่) หมายเหตุ 1: ยาโรสลาฟ Bulatov เขียนความคิดเห็นเกี่ยวกับคุณสมบัติที่ดีของความกระตือรือร้น Note2: ในคำถามก่อนหน้านี้ฉันขอเปรียบเทียบระหว่าง PyTorch และ Tensorflow Fold ในเวลานั้นฉันรู้สึกว่าพับอาจเผชิญ PyTorch ขอบคุณ Google สำรอง ฉันผิดอย่างมาก: ในที่สุด Google เองก็ละทิ้งการพับในความโปรดปรานของ Eager ฉันเข้าใจว่าสิ่งนี้เกิดจากข้อ จำกัด ที่แท้จริงใน tensorflow API ปกติที่ทำให้ Fold ไม่เป็นมิตรซึ่ง …

2
มีพฤติกรรมแปลก ๆ กับ Adam optimizer เมื่อฝึกอบรมนานเกินไป
ฉันพยายามฝึก perceptron เดี่ยว (1,000 หน่วยอินพุต, 1 เอาต์พุต, ไม่มีเลเยอร์ที่ซ่อนอยู่) ใน 64 จุดข้อมูลที่สร้างแบบสุ่ม ฉันใช้ Pytorch ใช้เพิ่มประสิทธิภาพอดัม: import torch from torch.autograd import Variable torch.manual_seed(545345) N, D_in, D_out = 64, 1000, 1 x = Variable(torch.randn(N, D_in)) y = Variable(torch.randn(N, D_out)) model = torch.nn.Linear(D_in, D_out) loss_fn = torch.nn.MSELoss(size_average=False) optimizer = torch.optim.Adam(model.parameters()) for t in xrange(5000): …

3
เครือข่ายเซลล์ประสาทเทียม (ANN) ที่มีอินพุตและเอาต์พุตจำนวนเท่าใดก็ได้
ฉันต้องการใช้ ANN สำหรับปัญหาของฉัน แต่ปัญหาคืออินพุตและเอาต์พุตหมายเลขโหนดของฉันไม่ได้รับการแก้ไข ฉันทำการค้นหาด้วยกูเกิลก่อนถามคำถามของฉันและพบว่า RNN อาจช่วยฉันแก้ปัญหาได้ แต่ตัวอย่างทั้งหมดที่ฉันได้พบมีจำนวนกำหนดโหนดเข้าและออก ดังนั้นฉันกำลังมองหากลยุทธ์วิธีทำให้เป็นจริงหรืออย่างน้อยตัวอย่างเป็นที่นิยมใน Keras หรือ PyTorch รายละเอียดเพิ่มเติมเกี่ยวกับปัญหาของฉัน: ฉันมีสองรายการอินพุตซึ่งความยาวของรายการแรกได้รับการแก้ไขและเท่ากับสอง fe: in_1 = [2,2] แต่ความยาวของรายการที่สองมีความยืดหยุ่นความยาวได้จากสามถึง inf, fe: in_2 = [1,1,2,2] หรือ in_2 = [1,1,1,2,2,2,3,3,3] นอกจากนี้รายการอินพุตยังต้องพึ่งพาซึ่งกันและกัน รายการแรกแสดงมิติของรายการเอาท์พุท ดังนั้นถ้า in_1 = [2,2] หมายถึงผลลัพธ์ที่จะต้องมีความเป็นไปได้ที่จะก่อร่างใหม่ในรูปแบบ [2,2] ขณะนี้ฉันกำลังคิดที่จะรวมสองรายการอินพุตเป็นหนึ่ง: in = in_1 + in_2 = [2, 2, 1, 1, 2, 2] นอกจากนี้เอาต์พุตมีความยาวเท่ากับรายการin_2 …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.