ฉันสงสัยว่าจะตีความสถาปัตยกรรมที่เกิดขึ้นซ้ำในบริบท EEG ได้อย่างไร โดยเฉพาะฉันคิดว่านี่เป็น CNN กำเริบ (ตรงข้ามกับสถาปัตยกรรมเช่น LSTM) แต่บางทีมันอาจใช้กับเครือข่ายกำเริบประเภทอื่นเช่นกัน
เมื่อฉันอ่านเกี่ยวกับ R-CNNs พวกเขามักจะอธิบายในบริบทการจำแนกภาพ พวกเขามักจะอธิบายว่า "การเรียนรู้เมื่อเวลาผ่านไป" หรือ "รวมถึงผลกระทบของเวลา -1 ในอินพุตปัจจุบัน"
การตีความ / คำอธิบายนี้ทำให้เกิดความสับสนเมื่อทำงานกับข้อมูล EEG ตัวอย่างของ R-CNN ที่ใช้กับข้อมูล EEG สามารถดูได้ที่นี่
ลองนึกภาพฉันมีตัวอย่างการฝึกอบรมแต่ละชุดประกอบด้วยอาร์เรย์ 1x512 อาร์เรย์นี้จับการอ่านค่าแรงดันไฟฟ้าสำหรับอิเล็กโทรด 1 ตัวที่จุดเวลาต่อเนื่องกัน 512 จุด ถ้าฉันใช้สิ่งนี้เป็นอินพุตไปยัง CNN ที่เกิดขึ้นอีก (โดยใช้การโน้มน้าวใจ 1D) ส่วนที่เกิดขึ้นอีกของโมเดลไม่ได้จับ "เวลา" จริงไหม (ตามที่ระบุไว้โดยนัยโดยคำอธิบาย / คำอธิบายที่กล่าวถึงก่อนหน้านี้) เพราะในบริบทนี้เวลาจะถูกจับโดยมิติที่สองของอาร์เรย์
ดังนั้นเมื่อมีการตั้งค่าเช่นนี้ส่วนที่เกิดขึ้นอีกของเครือข่ายจะอนุญาตให้เราสร้างแบบจำลองที่ซีเอ็นเอ็นปกติไม่สามารถทำได้ (ถ้าไม่ใช่เวลา)
สำหรับฉันแล้วดูเหมือนว่าการกำเริบหมายถึงการทำข้อตกลงการเพิ่มผลลัพธ์ลงในอินพุตต้นฉบับและการโน้มน้าวอีกครั้ง สิ่งนี้ได้รับการทำซ้ำสำหรับ x จำนวนขั้นตอนที่เกิดซ้ำ กระบวนการนี้ให้ประโยชน์อะไรบ้าง?