PyTorch vs. Tensorflow กระตือรือร้น


14

เมื่อเร็ว ๆ นี้ Google รวมอยู่ในการสร้างโหมดEagerซึ่งเป็น API ที่จำเป็นสำหรับการเข้าถึงความสามารถในการคำนวณ tensorflow

tensorflow กระตือรือร้นอย่างไรเปรียบเทียบกับ PyTorch

บางแง่มุมที่อาจส่งผลต่อการเปรียบเทียบคือ:

  • ข้อดีและข้อเสียของความกระตือรือร้นเนื่องจากกราฟแบบคงที่ (เช่นชื่อในโหนด)
  • ข้อ จำกัด ที่แท้จริงของข้อใดข้อหนึ่งที่ไม่ได้มี
  • พื้นที่ที่หนึ่งในนั้นต้องการการปรับปรุง (เช่นความสมบูรณ์ของคุณสมบัติการเพิ่มประสิทธิภาพการคำนวณ)
  • ความแตกต่างของระบบนิเวศ (เช่นเมตริกซ์หรือไม่)

หมายเหตุ 1: ยาโรสลาฟ Bulatov เขียนความคิดเห็นเกี่ยวกับคุณสมบัติที่ดีของความกระตือรือร้น

Note2: ในคำถามก่อนหน้านี้ฉันขอเปรียบเทียบระหว่าง PyTorch และ Tensorflow Fold ในเวลานั้นฉันรู้สึกว่าพับอาจเผชิญ PyTorch ขอบคุณ Google สำรอง ฉันผิดอย่างมาก: ในที่สุด Google เองก็ละทิ้งการพับในความโปรดปรานของ Eager ฉันเข้าใจว่าสิ่งนี้เกิดจากข้อ จำกัด ที่แท้จริงใน tensorflow API ปกติที่ทำให้ Fold ไม่เป็นมิตรซึ่ง จำกัด การยอมรับ


2
สำหรับฉันความแตกต่างที่ใหญ่ที่สุดคือฐานรหัส Pytorch ง่ายต่อการอ่านและทำความเข้าใจ หากฉันมีคำถามเฉพาะเกี่ยวกับการติดตั้งมันง่ายที่จะดำดิ่งลงไปฉันไม่รู้เลยว่า Tensorflow กำลังทำอะไรอยู่ใต้กระโปรงหน้ารถ
Louis T

คำตอบ:


1

ข้อดีอย่างหนึ่งที่ฉันใช้บ่อยๆคือมันเข้ากันได้กับ pdb ดังนั้น

pdb.set_trace # To the rescue

อนุญาตให้ใช้โครงสร้างข้อมูลหลาม

และให้เราใช้การควบคุม pythonic แทนการใช้เทียบเท่าหลัก tf

นอกจากนี้ยังช่วยหลีกเลี่ยงปัญหาการเปรียบเทียบโปรแกรมเช่น "การโหลดแบบขี้เกียจ" และการเพิ่มการดำเนินการลงในกราฟของฉัน นอกจากนี้ยังมีความคล้ายคลึงกัน autograd


1
คุณหมายถึง pytorch หรือ tf กระตือรือร้นไหม มันดูเหมือนว่าฉันว่างบของคุณนำไปใช้กับทั้งสองของพวกเขา ...
ncasas
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.