ฉันได้คิดถึงการนำไปใช้และใช้กระบวนทัศน์ Extreme Learning Machine (ELM) มานานกว่าหนึ่งปีแล้วและยิ่งฉันทำอีกต่อไปฉันยิ่งสงสัยว่ามันเป็นสิ่งที่ดีจริงๆ อย่างไรก็ตามความคิดเห็นของฉันดูเหมือนจะตรงกันข้ามกับชุมชนวิทยาศาสตร์ที่ - เมื่อใช้การอ้างอิงและสิ่งพิมพ์ใหม่เป็นมาตรการ - ดูเหมือนว่าจะเป็นประเด็นร้อน
Huang และ ELM ได้รับการแนะนำให้รู้จักกับ อัล ประมาณปี 2003 แนวคิดพื้นฐานนั้นค่อนข้างง่าย: เริ่มต้นด้วยโครงข่ายประสาทเทียม 2 ชั้นและสุ่มค่าสัมประสิทธิ์ในชั้นแรก สิ่งนี้หนึ่งแปลงปัญหาการปรับให้เหมาะสมแบบไม่เป็นเชิงเส้นซึ่งโดยทั่วไปจะถูกจัดการผ่าน backpropagation เป็นปัญหาการถดถอยเชิงเส้นอย่างง่าย รายละเอียดเพิ่มเติมสำหรับรุ่นคือ
ทีนี้มีการปรับเฉพาะ (เพื่อลดความผิดพลาดกำลังสองน้อยที่สุด) ในขณะที่ถูกเลือกแบบสุ่มทั้งหมด เพื่อเป็นการชดเชยการสูญเสียในองศาอิสระคำแนะนำตามปกติคือการใช้โหนดที่ซ่อนอยู่จำนวนมาก (เช่นพารามิเตอร์อิสระ )
จากมุมมองอื่น (ไม่ใช่สิ่งที่มักจะได้รับการส่งเสริมในวรรณคดีซึ่งมาจากเครือข่ายประสาทเทียม) กระบวนการทั้งหมดเป็นแค่การถดถอยเชิงเส้น แต่สิ่งหนึ่งที่คุณเลือกฟังก์ชั่นพื้นฐานของคุณสุ่ม
(ตัวเลือกอื่น ๆ อีกมากมายนอกเหนือจาก sigmoid เป็นไปได้สำหรับฟังก์ชั่นแบบสุ่มเช่นหลักการเดียวกันนี้ยังถูกนำมาใช้โดยใช้ฟังก์ชั่นพื้นฐานของรัศมีด้วย)
จากมุมมองนี้วิธีทั้งหมดกลายเป็นเรื่องง่ายเกินไปและนี่ก็เป็นจุดที่ฉันเริ่มสงสัยว่าวิธีนี้เป็นวิธีที่ดีจริงๆ ดังนั้นนี่คือคำถามของฉัน:
แนวคิดในการแรสเตอร์พื้นที่อินพุตโดยใช้ฟังก์ชั่นพื้นฐานแบบสุ่มคือในความคิดของฉันดีสำหรับขนาดต่ำ ในมิติที่สูงฉันคิดว่ามันเป็นไปไม่ได้เลยที่จะหาทางเลือกที่ดีโดยใช้การเลือกแบบสุ่มด้วยฟังก์ชั่นพื้นฐานที่เหมาะสม ดังนั้น ELM จึงลดขนาดในระดับสูง (เนื่องจากคำสาปของมิติ) หรือไม่
คุณรู้หรือไม่ว่าผลการทดลองสนับสนุน / ขัดแย้งกับความคิดเห็นนี้ ในกระดาษที่เชื่อมโยงมีชุดข้อมูลการถดถอย 27 มิติเพียงชุดเดียว (PYRIM) ซึ่งวิธีการทำงานคล้ายกับ SVMs (ในขณะที่ฉันอยากจะดูการเปรียบเทียบกับ ANP backpropagation)
โดยทั่วไปแล้วฉันต้องการแสดงความคิดเห็นของคุณเกี่ยวกับวิธีการ ELM