บทแนะนำที่ดีสำหรับเครื่อง Boltzmann ที่ จำกัด (RBM)


10

ฉันกำลังศึกษาเครื่อง Boltzmann ที่ จำกัด (RBM) และกำลังมีปัญหาบางอย่างในการทำความเข้าใจการคำนวณความน่าจะเป็นของบันทึกเกี่ยวกับพารามิเตอร์ของ RBM แม้ว่าจะมีการตีพิมพ์รายงานวิจัยจำนวนมากเกี่ยวกับ RBM แต่ก็ไม่มีขั้นตอนโดยละเอียดของตราสารอนุพันธ์ หลังจากค้นหาออนไลน์ฉันสามารถค้นหาพวกเขาในเอกสารนี้:

  • Fischer, A. , & Igel, C. (2012) บทนำของเครื่องจักร Boltzmann ที่ถูก จำกัด ใน L. Alvarez et al. (บรรณาธิการ): CIARP, LNCS 7441, pp. 14–36, Springer-Verlag: Berlin-Heidelberg ( pdf )

อย่างไรก็ตามรายละเอียดของเอกสารนี้ก้าวหน้าเกินไปสำหรับฉัน ใครช่วยชี้ให้ฉันดูบทสอน / ชุดการบรรยายที่ดีเกี่ยวกับ RBM ได้หรือไม่?


แก้ไข: @David ส่วนที่สับสนแสดงอยู่ด้านล่าง (สมการที่ 29 ในหน้า 26):

lnL(θ|v)wij=hp(h|v)E(v,h)wij+v,hp(v,h)E(v,h)wij=hp(h|v)hivjvp(v)hp(h|v)hivj(29)=p(Hi=1|v)vjvp(v)p(Hi=1|v)vj.

คุณจะเจาะจงมากขึ้นเกี่ยวกับขั้นตอนที่ทำให้คุณสับสนได้หรือไม่?
David J. Harris

1
บทอ่านที่ดีคือบทที่ 5 ของการเรียนรู้สถาปัตยกรรมเชิงลึกสำหรับ AI ( iro.umontreal.ca/~bengioy/papers/ftml_book.pdf )
dksahuji

@dksahuji ขอบคุณสำหรับ INFO เช่นกันศาสตราจารย์: Bengio กำลังเขียน DL และร่างแบบมีอยู่ที่iro.umontreal.ca/~bengioy/dlbook
Upul

บทช่วยสอนนี้มีคำอธิบายเกี่ยวกับคณิตศาสตร์ของ RBM ( บทช่วยสอนเกี่ยวกับเครื่อง Boltzmann ที่ จำกัด )
เจียงเซียง

คำตอบ:


7

ฉันรู้ว่ามันสายไปหน่อย แต่บางทีมันอาจช่วยได้ เพื่อให้ได้เทอมแรกของสมการของคุณมันใช้ขั้นตอนเหล่านี้: เราได้สันนิษฐานว่าเป็นเงื่อนไขระหว่าง หน่วยที่ซ่อนให้หน่วยที่มองเห็นได้มีอยู่ ดังนั้นเราสามารถแยกตัวประกอบการกระจายความน่าจะเป็นแบบมีเงื่อนไขสำหรับสถานะที่ซ่อนอยู่

hp(h|v)hivj=vjh1...hi...hnp(h1,...,hi,...hn|v)hi=vjhih_ip(hi,h_i|v)hi
1ชั่วโมงฉัน10
=vjhih_ip(hi|v)hip(h_i|v)=vjhip(hi|v)hih_ip(h_i|v)
เทอมสุดท้ายมีค่าเท่ากับเนื่องจากเราสรุปผลรวมของทุกรัฐ ดังนั้นสิ่งที่เหลืออยู่คือเทอมแรก เนื่องจากใช้สถานะและเราจึงลงท้ายด้วย: 1hi10
=vjp(Hi=1|v)

7
  1. มีการสอนที่ดีของ RBMs บนเป็นเว็บไซต์การเรียนรู้เชิงลึก

  2. โพสต์บล็อกนี้ ( Introduction to Restricted Boltzmann Machines ) เขียนด้วยภาษาที่ง่ายขึ้นและอธิบายพื้นฐานของ RBMS ได้ดีมาก:

  3. นอกจากนี้อาจอ้างอิงที่ดีที่สุดคือหลักสูตร Neural Networksของ Geoff Hinton ใน Coursea:

    ฉันไม่แน่ใจว่าคุณจะสามารถเข้าถึงชั้นเรียนและวิดีโอหลังจากจบชั้นเรียนได้หรือไม่


2
ยังมีคนสมัครเข้าเรียนในชั้นเรียน Coursera และโพสต์ในฟอรัม คุณยังสามารถดูการบรรยายทั้งหมดและเข้าถึงการสอบย่อยทั้งหมดและการมอบหมายการเขียนโปรแกรม (ท่ามกลางคำถาม) ข้อมูลนี้อาจเป็นข้อมูลจนกว่าจะมีการเสนอหลักสูตรอีกครั้ง ฉันแนะนำให้ลงทะเบียนในหลักสูตรเพื่อดูหรือดาวน์โหลดเนื้อหา
Douglas Zare

1

กล่องสีส้มด้านซ้ายให้ค่าคาดหวังของการไล่ระดับพลังงานสำหรับการกำหนดค่าที่ซ่อนอยู่ทั้งหมดเนื่องจากเวกเตอร์ที่มองเห็นได้บางส่วนถูกหนีบบนหน่วยที่มองเห็นได้ (การคาดหวังเหนือข้อมูลเนื่องจากใช้ตัวอย่างจากชุดฝึกอบรมของคุณ) คำว่าตัวเองเป็นผลคูณของ (1) ความน่าจะเป็นที่จะเห็นยูนิตที่ซ่อนอยู่ i โดยเฉพาะเนื่องจากเวกเตอร์ v บางตัวถูกหนีบบนหน่วยที่มองเห็นได้และ (2) สถานะของหน่วยที่มองเห็นได้นั้น j

กล่องสีส้มด้านขวานั้นเหมือนกับกล่องด้านซ้ายยกเว้นว่าคุณกำลังทำอะไรอยู่ในกล่องสีส้มด้านซ้ายสำหรับทุกการตั้งค่าที่สามารถมองเห็นได้แทนที่จะเป็นกล่องที่ยึดติดกับหน่วยที่มองเห็นได้ (ความคาดหวังเหนือโมเดล ในหน่วยที่มองเห็นได้)


1

บทที่ 5 ของหลักสูตรของ Hugo Larochelle เกี่ยวกับการเรียนรู้ของเครื่อง ( วิดีโอ ) เป็นการแนะนำที่ดีที่สุดที่ฉันเคยพบมา

อนุพันธ์ของฟังก์ชั่นการสูญเสียไม่ได้มาจากการบรรยายเหล่านี้ แต่มันไม่ยากที่จะทำ (ฉันสามารถโพสต์การสแกนการคำนวณของฉันหากจำเป็น แต่มันไม่ได้ยากจริงๆ) ฉันยังคงมองหาหนังสือเรียนที่ดีครอบคลุมหัวข้อนี้ แต่ส่วนใหญ่มีบทความเท่านั้น มีภาพรวมที่ดีของบทความในบทที่ 20 ของหนังสือการเรียนรู้ลึกของ Bengio

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.