การปรับสถาปัตยกรรม NN แบบไดนามิก: การประดิษฐ์สิ่งที่ไม่จำเป็น?


9

ฉันเริ่มต้นการเดินทางในระดับปริญญาเอกของฉันและเป้าหมายสูงสุดที่ฉันตั้งไว้ก่อนหน้านี้คือการพัฒนา ANNs ที่จะคอยตรวจสอบสภาพแวดล้อมที่พวกเขาทำงานและปรับสถาปัตยกรรมของพวกเขาให้เข้ากับปัญหาในมือ ความหมายที่ชัดเจนคือข้อมูลชั่วคราว: ถ้าชุดข้อมูลไม่ต่อเนื่องและไม่เปลี่ยนแปลงตลอดเวลาทำไมต้องปรับเลย

คำถามใหญ่คือด้วยการเรียนรู้ที่เพิ่มขึ้นเมื่อเร็ว ๆ นี้มันยังคงเป็นหัวข้อที่เกี่ยวข้องหรือไม่? FFNNs มีโอกาสที่จะพบว่าตัวเองมีปัญหาในการดริฟท์แนวคิดหรือไม่?

ฉันกลัวที่จะโอเวอร์โหลดเธรดที่มีคำถามมากเกินไป แต่คำถามนี้ไม่ได้อยู่นอกหัวข้อทั้งหมด: ฉันทราบถึง RNNs แต่ฉันมีประสบการณ์ จำกัด (ไม่เป็นไรไม่มีเหตุผลหรือเชิงทฤษฎี) กับพวกเขา ฉันเชื่อว่าการปรับสถาปัตยกรรมแบบไดนามิกต้องเป็นหัวข้อที่เกี่ยวข้องในบริบทของ RNN คำถามคือมันได้รับคำตอบแล้วและฉันจะคิดค้นล้อใหม่หรือไม่

PS ข้ามโพสต์ไปยังMetaOptimize


เมื่อคุณพูดว่า "ปรับสถาปัตยกรรมของพวกเขา" คุณหมายถึงพารามิเตอร์ (น้ำหนักอคติ) หรือปรับปรุงโครงสร้างที่แท้จริงของเครือข่าย (โหนดที่ซ่อนอยู่ฟังก์ชั่นการเปิดใช้งานการเชื่อมต่อ ฯลฯ )? นอกจากนี้ในแอปพลิเคชั่นการเรียนรู้เชิงลึกมากมายผลลัพธ์สุดท้ายคือเครือข่ายนิวรอลฟีดไปข้างหน้าเพียงอันเดียวที่มีน้ำหนักเริ่มต้นโดยกระบวนการที่ไม่มีผู้ดูแล
อัลโต

@ ถึงฉันหมายถึงโครงสร้าง NN จริง - จำนวนหน่วยที่ซ่อนอยู่และ (อาจ) เลเยอร์ - ฉันแน่ใจว่าสามารถใช้งานได้ในระดับความซับซ้อนที่แตกต่างกัน ฉันรู้สึกว่าฉันต้องเริ่มต้นอ่านหนังสือเกี่ยวกับการเรียนรู้อย่างลึกซึ้งถ้าฉันจะไปไหนมาไหนก็ได้
anna-earwen

@ anna-earwen หัวข้อปริญญาเอกที่น่าสนใจมันเป็นไปได้ยังไง
Dikran Marsupial

1
@Dikran Marsupial เร็ว ๆ นี้ฉันจะมุ่งหน้าไปที่ IJCNN 2014 เพื่อพูดคุยเกี่ยวกับวิธีและทำไม PSO ล้มเหลวในการฝึกอบรม NNs มิติสูง ดังนั้นคำตอบคือใช่และทราบ: ฉันใช้ทางอ้อมขนาดใหญ่จากเวกเตอร์งานวิจัยดั้งเดิมและฉันสงสัยว่าฉันจะกลับมาที่สถาปัตยกรรมที่ปรับเปลี่ยนได้หรือไม่ เฉพาะเวลาและผลลัพธ์เชิงประจักษ์เท่านั้นที่จะบอกได้!
anna-earwen

ฉันจะระวังในการดำเนินคดี - ทำความเข้าใจว่าทำไมสิ่งต่าง ๆ ไม่ทำงานเป็นสิ่งที่วิทยาศาสตร์ต้องการมากกว่า (และการศึกษาเชิงประจักษ์)
Dikran Marsupial

คำตอบ:


6

Cascade-Correlation Neural Networks ปรับโครงสร้างของพวกเขาโดยเพิ่มโหนดที่ซ่อนอยู่ในระหว่างกระบวนการฝึกอบรมดังนั้นนี่อาจเป็นจุดเริ่มต้น งานอื่น ๆ ส่วนใหญ่ที่ฉันได้เห็นว่าจะปรับจำนวนเลเยอร์จำนวนโหนดที่ซ่อนอยู่ ฯลฯ ของเครือข่ายประสาทเทียมโดยอัตโนมัติใช้อัลกอริธึมวิวัฒนาการ

น่าเสียดายที่งานนี้อยู่นอกพื้นที่ของฉันดังนั้นฉันจึงไม่สามารถแนะนำเอกสารหรือข้อมูลอ้างอิงใด ๆ เพื่อช่วยให้คุณเริ่มต้นได้ ฉันสามารถบอกคุณได้ว่าฉันไม่ได้เห็นงานที่พยายามเพิ่มประสิทธิภาพโครงสร้างเครือข่ายและพารามิเตอร์พร้อมกันภายในชุมชนการเรียนรู้อย่างลึกซึ้ง ในความเป็นจริงสถาปัตยกรรมการเรียนรู้เชิงลึกส่วนใหญ่ตั้งอยู่บนพื้นฐานของการเรียนรู้อย่างตะกละตะหงิดใจในชั้นเดียวในเวลาเดียวกันทำให้การเรียนรู้ออนไลน์แม้กระทั่งเครือข่ายประสาทลึกเป็นพื้นที่ที่ไม่มีใครแตะต้อง (การทำงานของ Martens et al.


ขอบคุณมากคุณให้ข้อมูลแก่ฉันมากพอที่จะเริ่มขุดหาทองคำ :)
anna-earwen

2

เหตุผลที่จะต้องพิจารณาการพัฒนานวนิยายอีกวิธีการที่สร้างสรรค์เครือข่ายประสาท (เช่นอัลกอริทึมของ CC @alto กล่าวถึง) อยู่ในการใช้งานด้านนอกของสถิติ โดยเฉพาะอย่างยิ่งในวิชาประสาทวิทยาศาสตร์และวิทยาศาสตร์เกี่ยวกับความรู้ความเข้าใจเครือข่ายประสาทที่สร้างสรรค์มักจะใช้เพราะความคล้ายคลึงเชิงเปรียบเทียบกับการพัฒนาและ neurogenesis สำหรับตัวอย่างของการใช้งานหนักของน้ำตกความสัมพันธ์ในการนี้ให้ดูที่สิ่งพิมพ์ของโทมัสอา Shultz น่าเสียดายที่วิธีการสหสัมพันธ์แบบเรียงซ้อนนั้นเป็นสิ่งที่ไม่สมจริงทางชีวภาพและหากคุณมีประสาทวิทยาศาสตร์ก็ควรพิจารณาว่า NNs ใหม่กับสถาปัตยกรรมที่ปรับได้นั้นสามารถใช้เป็นแบบจำลองการพัฒนาที่ดีขึ้นและ / หรือ neurogenesis ได้อย่างไร


1
ขอบคุณ Artem! ในความเป็นจริงฉันเป็นนักวิทยาศาสตร์คอมพิวเตอร์ที่บริสุทธิ์มากกว่าสิ่งอื่นใดดังนั้นความรู้เกี่ยวกับระบบประสาทและการพยากรณ์ของฉันจึงน้อยกว่าที่หาได้ยาก แม้ว่าจะฟังดูน่าตื่นเต้นและเนื่องจากถนนทุกสายยังเปิดอยู่ฉันก็สามารถเจาะลึกลงไปได้เช่นกัน - อย่างน้อยก็พอ ในขณะนี้ฉันมีความสนใจเป็นพิเศษในการประยุกต์ใช้งานด้านวิศวกรรมในชีวิตจริงและปัญหาการวิเคราะห์ข้อมูลที่สามารถใช้ในการเปรียบเทียบ
anna-earwen
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.