โดยพื้นฐานแล้วคำถามของฉันคือใน Multilayer Perceptrons, Perceptrons นั้นใช้กับฟังก์ชั่นการเปิดใช้งาน sigmoid ดังนั้นในการอัปเดตกฎจะถูกคำนวณดังนี้
Perceptron "sigmoid" นี้แตกต่างจากการถดถอยโลจิสติกอย่างไร
ฉันจะบอกว่า sigmoid perceptron ชั้นเดียวเทียบเท่ากับการถดถอยโลจิสติกในแง่ที่ว่าทั้งสองใช้ในกฎการอัพเดท นอกจากนี้ทั้งสองส่งกลับในการทำนาย อย่างไรก็ตามในมัลติเลเยอร์ Perceptrons ฟังก์ชั่นการเปิดใช้งาน sigmoid จะใช้เพื่อคืนความน่าจะเป็นไม่ใช่สัญญาณเปิดปิดในทางตรงกันข้ามกับการถดถอยโลจิสติกและ perceptron ชั้นเดียว
ฉันคิดว่าการใช้คำว่า "Perceptron" อาจจะคลุมเครือเล็กน้อยดังนั้นให้ฉันให้พื้นหลังตามความเข้าใจในปัจจุบันของฉันเกี่ยวกับ perceptrons ชั้นเดียว:
กฎ Perceptron แบบคลาสสิก
ประการแรกคลาสสิก perceptron โดย F. Rosenblatt ที่เรามีฟังก์ชั่นขั้นตอน:
เพื่ออัปเดตตุ้มน้ำหนัก
ดังนั้นจึงถูกคำนวณเป็น
โคตรลาด
การใช้การไล่ระดับสีเราเพิ่มประสิทธิภาพ (ลด) ฟังก์ชันต้นทุน
ที่ซึ่งเรามีตัวเลข "ของจริง" ดังนั้นฉันจึงเห็นว่านี่คล้ายกับการถดถอยเชิงเส้นตรงกับความแตกต่างที่เอาท์พุทการจัดหมวดหมู่ของเราถูกเกณฑ์
ที่นี่เราก้าวไปในทิศทางลบของการไล่ระดับสีเมื่อเราอัพเดทตุ้มน้ำหนัก
แต่ที่นี่เรามีแทน Y =สัญญาณ(WTxฉัน)
นอกจากนี้เรายังคำนวณผลรวมของข้อผิดพลาดกำลังสองสำหรับการส่งผ่านชุดข้อมูลการฝึกอบรมทั้งหมด (ในโหมดการเรียนรู้แบบแบทช์) ตรงข้ามกับกฎ perceptron แบบคลาสสิกซึ่งอัปเดตน้ำหนักเมื่อตัวอย่างการฝึกอบรมใหม่มาถึง การเรียนรู้)
ฟังก์ชันการเปิดใช้งาน Sigmoid
ตอนนี้นี่คือคำถามของฉัน:
ใน Multilayer Perceptrons จะใช้ Perceptrons พร้อมกับฟังก์ชั่นการเปิดใช้งาน sigmoid ดังนั้นในการอัปเดตกฎจะถูกคำนวณดังนี้
Perceptron "sigmoid" นี้แตกต่างจากการถดถอยโลจิสติกอย่างไร