ฉันไม่ได้พบวรรณกรรมใด ๆ เกี่ยวกับการใช้ Random Forests กับ MNIST, CIFAR, STL-10 ฯลฯ ดังนั้นฉันจึงคิดว่าฉันจะลองใช้มันด้วยMNIST ที่ไม่เปลี่ยนแปลง
ในRฉันลอง:
randomForest(train$x, factor(train$y), test$x, factor(test$y), ntree=500)
สิ่งนี้ใช้เวลา 2 ชั่วโมงและมีข้อผิดพลาดการทดสอบ 2.8%
ฉันยังได้ลองscikit เรียนรู้ด้วย
RandomForestClassifier(n_estimators=2000,
max_features="auto",
max_depth=None)
หลังจาก 70 นาทีฉันได้รับข้อผิดพลาดการทดสอบ 2.9% แต่ด้วย n_estimators = 200 แทนฉันได้รับข้อผิดพลาดการทดสอบ 2.8% หลังจากเพียง 7 นาที
ด้วยOpenCVฉันพยายาม
rf.train(images.reshape(-1, 28**2),
cv2.CV_ROW_SAMPLE,
labels.astype('int'))
การดำเนินการนี้ใช้เวลา 6.5 นาทีและrf
การคาดการณ์ทำให้ข้อผิดพลาดในการทดสอบ 15% ฉันไม่ทราบว่ามีต้นไม้กี่ต้นที่ได้รับการฝึกฝนเนื่องจาก Python ของพวกเขาที่เชื่อมโยงกับ Random Forests ดูเหมือนจะเพิกเฉยต่อparams
ข้อโต้แย้งอย่างน้อยในเวอร์ชัน 2.3.1 ฉันยังไม่สามารถหาวิธีที่จะทำให้ชัดเจนกับ OpenCV ที่ฉันต้องการแก้ปัญหาการจัดหมวดหมู่มากกว่าการถดถอย - ฉันมีข้อสงสัยของฉันเพราะแทนที่astype('int')
ด้วยastype('float32')
ให้ผลที่เหมือนกัน
ในเครือข่ายประสาทสำหรับการเปลี่ยนแปลงคงที่มาตรฐาน MNIST รัฐของศิลปะที่เป็นข้อผิดพลาดการทดสอบ 0.8% แม้ว่าการฝึกอบรมอาจจะใช้เวลานานกว่า 2 ชั่วโมงในหนึ่ง CPU
เป็นไปได้ไหมที่จะทำดีกว่าข้อผิดพลาดการทดสอบ 2.8% ใน MNIST โดยใช้ป่าสุ่ม ฉันคิดว่าฉันทามติทั่วไปคือป่าสุ่มมักจะดีเท่ากับเคอร์เนล SVMs ซึ่งฉันเชื่อว่าจะได้รับข้อผิดพลาดการทดสอบ 1.4%