พื้นหลัง Intro
ภายในเครือข่ายประสาทเทียมเรามักจะมีโครงสร้าง / การไหลทั่วไปที่มีลักษณะดังนี้:
- ภาพอินพุต (เช่นเวกเตอร์ 2D
x
)
(เลเยอร์ Convolutional ที่ 1 (Conv1) เริ่มที่นี่ ... )
- ตั้งค่าฟิลเตอร์ (
w1
) ตามภาพ 2D (เช่นการz1 = w1*x + b1
คูณผลิตภัณฑ์ดอท) ที่z1
3D และb1
เป็นอคติ - ใช้ฟังก์ชั่นการเปิดใช้งาน (เช่น ReLu) เพื่อสร้างแบบ
z1
ไม่เป็นเชิงเส้น (เช่นa1 = ReLu(z1)
) โดยที่a1
เป็น 3D
(เลเยอร์ Convolutional ที่สอง (Conv2) เริ่มที่นี่ ... )
- โน้มน้าวชุดของตัวกรองตามการเปิดใช้งานที่คำนวณใหม่ (เช่นการ
z2 = w2*a1 + b2
คูณผลิตภัณฑ์ดอท) ซึ่งz2
เป็น 3D และb2
เป็นอคติ - ใช้ฟังก์ชั่นการเปิดใช้งาน (เช่น ReLu) เพื่อสร้างแบบ
z2
ไม่เป็นเชิงเส้น (เช่นa2 = ReLu(z2)
) โดยที่a2
เป็น 3D
คำถาม
คำจำกัดความของคำว่า "แผนที่คุณลักษณะ" ดูเหมือนจะแตกต่างกันไปจากวรรณกรรมถึงวรรณกรรม รูปธรรม
- สำหรับเลเยอร์ convolutional ที่ 1 "ฟีเจอร์แมป" สอดคล้องกับเวกเตอร์อินพุท
x
หรือเอาท์พุทผลิตภัณฑ์จุดz1
หรือการเปิดใช้งานเอาต์พุตa1
หรือ "กระบวนการ" ที่แปลงx
เป็นa1
หรืออย่างอื่นหรือไม่? - ในทำนองเดียวกันสำหรับชั้นที่ 2 ความสับสนไม่คุณลักษณะ "แผนที่" สอดคล้องกับการเปิดใช้งานการป้อนข้อมูล
a1
หรือผลิตภัณฑ์จุดการส่งออกz2
หรือการเปิดใช้งานการส่งออกa2
หรือ "ขั้นตอน" การแปลงa1
ไปa2
หรือสิ่งอื่นใด
นอกจากนี้จริงหรือไม่ที่คำว่า "แผนที่คุณลักษณะ" นั้นเหมือนกับ "แผนที่เปิดใช้งาน" หรือไม่ (หรือพวกเขาหมายถึงสองสิ่งที่แตกต่างจริง ๆ ?)
การอ้างอิงเพิ่มเติม:
ตัวอย่างจากเครือข่ายประสาทและการเรียนรู้ลึก - บทที่ 6 :
* ระบบการตั้งชื่อจะถูกนำมาใช้อย่างอิสระที่นี่ โดยเฉพาะอย่างยิ่งฉันใช้ "คุณสมบัติแผนที่" เพื่อหมายถึงไม่ใช่ฟังก์ชั่นที่คำนวณโดยเลเยอร์ Convolutional แต่เป็นการเปิดใช้งานการส่งออกเซลล์ประสาทที่ซ่อนอยู่จากเลเยอร์ การใช้ศัพท์เฉพาะทางแบบเบา ๆ นี้เป็นเรื่องธรรมดาในงานวิจัย
ตัวอย่างจากการแสดงผลและทำความเข้าใจกับเครือข่าย Convolutional โดย Matt Zeiler :
ในบทความนี้เราแนะนำเทคนิคการสร้างภาพข้อมูลที่เผยให้เห็นสิ่งกระตุ้นการป้อนข้อมูลที่กระตุ้นให้เกิดการแมปคุณสมบัติส่วนบุคคลในทุกชั้นในโมเดล [... ] วิธีการของเราในทางตรงกันข้ามให้มุมมองที่ไม่ใช่พารามิเตอร์ของค่าคงที่แสดงให้เห็นว่ารูปแบบใดจากชุดการฝึกอบรมที่เปิดใช้งานแผนที่คุณลักษณะ [... ] การดำเนินการความคมชัดในท้องถิ่นที่ทำให้การตอบสนองทั่วทั้งแผนที่คุณลักษณะเป็นปกติ [... ] เพื่อตรวจสอบการเปิดใช้งาน Convnet ที่กำหนดเราตั้งค่าการเปิดใช้งานอื่น ๆ ทั้งหมดในเลเยอร์ให้เป็นศูนย์และส่งผ่านการแมปคุณสมบัติเป็นอินพุตไปยังเลเยอร์ deconvnet ที่แนบมา [... ] Convnet ใช้ relu non-linearities ซึ่งแก้ไขแมปของฟีเจอร์ดังนั้นทำให้มั่นใจได้ว่าฟีเจอร์แมปจะเป็นบวกเสมอ [... ] Convnet ใช้ตัวกรองที่เรียนรู้เพื่อโน้มน้าวแผนที่คุณลักษณะจากเลเยอร์ก่อนหน้า [... ] รูปที่ 6 การสร้างภาพข้อมูลเหล่านี้เป็นการนำเสนอรูปแบบการป้อนข้อมูลที่ถูกต้องซึ่งช่วยกระตุ้นแผนที่คุณลักษณะที่กำหนดในโมเดล [... ] เมื่อส่วนต่าง ๆ ของภาพอินพุตต้นฉบับที่สอดคล้องกับรูปแบบนั้นถูกบดบังเราจะเห็นการลดลงของกิจกรรมภายในแผนที่คุณลักษณะ [ ... ]
ข้อสังเกต: ยังแนะนำคำว่า "ฟีเจอร์แมป" และ "แก้ไขฟีเจอร์แมป" ในรูปที่ 1
ตัวอย่างจากStanford CS231n ตอนที่ CNN :
[... ] อันตรายที่อันตรายอย่างหนึ่งที่สามารถสังเกตเห็นได้อย่างง่ายดายด้วยการสร้างภาพข้อมูลนี้คือแผนที่กระตุ้นบางอย่างอาจเป็นศูนย์สำหรับอินพุตที่แตกต่างกันจำนวนมากซึ่งสามารถระบุตัวกรองที่ตายแล้วและอาจเป็นอาการของอัตราการเรียนรู้สูง [... ] การเปิดใช้งานที่ดูตามปกติในชั้น CONV แรก (ซ้าย) และชั้น CONV ลำดับที่ 5 (ขวา) ของ AlexNet ที่ได้รับการฝึกอบรมมองที่รูปแมว ทุกช่องแสดงแผนที่การเปิดใช้งานที่สอดคล้องกับตัวกรองบางส่วน โปรดสังเกตว่าการเปิดใช้งานเบาบาง (ค่าส่วนใหญ่เป็นศูนย์ในการแสดงภาพประกอบเพลงนี้แสดงเป็นสีดำ) และส่วนใหญ่อยู่ในพื้นที่
ตัวอย่างจากA-Beginner's-Guide-To-Understanding-Convolutional-Neural-Networks
[... ] ทุกสถานที่ที่ไม่ซ้ำกันในปริมาณการป้อนข้อมูลผลิตตัวเลข หลังจากเลื่อนตัวกรองไปทั่วทุกสถานที่คุณจะพบว่าสิ่งที่คุณเหลืออยู่คือตัวเลข 28 x 28 x 1 ซึ่งเราเรียกว่าแผนที่เปิดใช้งานหรือแผนที่คุณลักษณะ
a1
,a2
ฯลฯ ) ใน Conv2 ฉันเดาว่าฉันจะเรียกa1
แผนที่เปิดใช้งานอินพุตและa2
แผนที่เปิดใช้งานผลลัพธ์ ใน Conv1 คือx
ภาพอินพุตและa1
แผนที่เปิดใช้งานเอาต์พุต