คำถามนี้ได้รับการแก้ไขในโพสต์ที่ดีมากนี้ โปรดดูที่มันและการอ้างอิงในนั้น http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
แจ้งให้ทราบในบทความที่พูดเกี่ยวกับการสอบเทียบและเชื่อมโยงไปยังโพสต์บล็อกอื่น (ดี) โพสต์เกี่ยวกับมัน ถึงกระนั้นฉันก็พบว่ากระดาษที่ได้รับความน่าจะเป็นที่ได้รับการสอบเทียบจากการเพิ่มจะช่วยให้คุณมีความเข้าใจที่ดีขึ้นเกี่ยวกับการสอบเทียบในบริบทของตัวแยกประเภทที่ได้รับการส่งเสริมและสิ่งที่เป็นวิธีมาตรฐาน
และในที่สุดแง่มุมหนึ่งก็หายไป (อีกทฤษฎีหนึ่ง) ทั้ง RF และ GBM เป็นวิธีรวมวงซึ่งหมายความว่าคุณสร้างลักษณนามออกมาเป็นลักษณนามขนาดเล็กจำนวนมาก ตอนนี้ความแตกต่างพื้นฐานอยู่ที่วิธีการที่ใช้:
- RF ใช้ต้นไม้ตัดสินใจซึ่งมีแนวโน้มที่จะเกิด overfitting มาก เพื่อให้บรรลุความแม่นยำสูง, RF ตัดสินใจที่จะสร้างจำนวนมากของพวกเขาอยู่บนพื้นฐานของการบรรจุถุง แนวคิดพื้นฐานคือการสุ่มตัวอย่างข้อมูลซ้ำแล้วซ้ำอีกและสำหรับแต่ละตัวอย่างฝึกอบรมตัวจําแนกใหม่ ตัวแยกประเภทที่แตกต่างกันมากเกินความเหมาะสมของข้อมูลในวิธีที่ต่างกันและจากการลงคะแนนความแตกต่างเหล่านั้นจะถูกนำมาเฉลี่ย
- GBM เป็นวิธีการส่งเสริมซึ่งสร้างบนลักษณนามอ่อนแอ ความคิดคือการเพิ่มตัวจําแนกในเวลาเพื่อให้ตัวจําแนกต่อไปได้รับการฝึกฝนเพื่อปรับปรุงชุดที่ได้รับการฝึกฝนแล้ว ขอให้สังเกตว่าสำหรับ RF ซ้ำแต่ละตัวจําแนกได้รับการฝึกฝนเป็นอิสระจากส่วนที่เหลือ