ผลของการไม่เปลี่ยนน้ำหนักตัวกรองของซีเอ็นเอ็นระหว่างการแพร่กระจายภาพย้อนหลังคืออะไร? ฉันเปลี่ยนน้ำหนักของชั้นที่เชื่อมต่ออย่างเต็มที่ในขณะที่ฝึกฝนชุดข้อมูล MNIST และยังคงได้รับความแม่นยำเกือบ 99 เปอร์เซ็นต์
ผลของการไม่เปลี่ยนน้ำหนักตัวกรองของซีเอ็นเอ็นระหว่างการแพร่กระจายภาพย้อนหลังคืออะไร? ฉันเปลี่ยนน้ำหนักของชั้นที่เชื่อมต่ออย่างเต็มที่ในขณะที่ฝึกฝนชุดข้อมูล MNIST และยังคงได้รับความแม่นยำเกือบ 99 เปอร์เซ็นต์
คำตอบ:
โดยการไม่เปลี่ยนน้ำหนักของเลเยอร์ convolutional ของ CNN คุณกำลังป้อนฟีเจอร์สุ่มของตัวแยกประเภท (เลเยอร์ที่เชื่อมต่ออย่างเต็มที่) (เช่นไม่ใช่ฟีเจอร์ที่เหมาะสมที่สุดสำหรับงานการจำแนกประเภทที่อยู่ในมือ)
MNIST เป็นงานการจำแนกภาพที่ง่ายพอที่คุณสามารถป้อนพิกเซลอินพุตให้กับลักษณนามโดยไม่ต้องแยกคุณลักษณะออกและยังคงให้คะแนนใน 90s สูง นอกจากนั้นชั้นที่รวมกำไรอาจช่วยเล็กน้อย ...
ลองฝึก MLP (โดยไม่มีเลเยอร์ Conv / พูล) บนอิมเมจอินพุตและดูการจัดอันดับ นี่คือตัวอย่างที่ MLP (1 เลเยอร์เอาท์พุท & 1 เลเยอร์เอาท์พุท) ถึง 98 +% โดยไม่ต้องมีการดึงข้อมูลมาประมวลผลล่วงหน้า
แก้ไข:
ฉันอยากจะชี้ให้เห็นคำตอบอื่นที่ฉันเขียนซึ่งจะมีรายละเอียดเพิ่มเติมว่าทำไม MNIST จึงง่ายเหมือนงานจัดหมวดหมู่ภาพ