นี่อาจเป็นคำถามที่งี่เง่า แต่เมื่อสร้างแบบจำลองที่มีเครื่องหมายรูปหมวกและใช้บางอย่างเช่นLOOCV
หรือ (ยิ่งไปกว่านั้น) LGOCV
สิ่งที่เป็นประโยชน์ของการแยกข้อมูลออกเป็นชุดรถไฟและชุดทดสอบถ้านี่คือขั้นตอนการตรวจสอบความถูกต้อง ทำอย่างไร
ผมอ่านบางส่วนของคำถามที่เกี่ยวข้องและพวกเขาชี้ให้เห็นว่าบางส่วนของวิธีการตรวจสอบข้าม (เช่นสิ่งที่อธิบายนี่ที่เว็บไซต์ของลูกศร ) เป็นเพื่อวัตถุประสงค์ในการเลือกคุณลักษณะ แต่ในกรณีของฉันฉันกำลังใช้randomForest
( method = "rf"
) และkernlab
( method = svmRadial
) ซึ่งไม่ได้อยู่ในกลุ่มที่พยายามล้างคำทำนาย
ดังนั้นคำถามของฉันคือถ้าฉันใช้สิ่งที่ชอบcross_val <- trainControl(method = "LGOCV", p = 0.8)
ไม่เหมือนกับการฝึกอบรมที่ 80% ของข้อมูลของฉันทดสอบแบบจำลองผลลัพธ์ในส่วนที่เหลืออีก 20% และทำสิ่งนั้นซ้ำไปซ้ำมาเพื่อให้ได้แนวคิดว่า รูปแบบการทำงานหรือไม่
ถ้าเป็นเช่นนั้นมีความจำเป็นที่จะต้องแยกข้อมูลของฉันออกเป็นชุดรถไฟ / ชุดทดสอบหรือไม่?
PS ฉันถามบางส่วนในขณะที่ฉันกำลังทำแบบจำลองเกี่ยวกับต้นแบบ DOE ที่สร้างขึ้นเชิงประจักษ์ (คิดว่าสินค้าหนักที่เราปรับแต่งอินพุตและจากนั้นใช้วิธีการทดสอบเพื่อวัดคุณลักษณะต่างๆเกี่ยวกับต้นแบบ)
ดังนั้นฉันไม่ได้มีชุดข้อมูลขนาดใหญ่ที่มีระดับตัวทำนายที่ทับซ้อนกันจำนวนมากเพื่อเป็นแบบจำลอง - เรามักเรียกใช้การทดลองหนึ่งครั้งในแต่ละจุดที่น่าสนใจของ DOE เนื่องจากการสร้างข้อมูลมีราคาแพงในกรณีนี้ ดังนั้นฉันต้องการใช้ข้อมูลทั้งหมดที่ฉันสามารถทำได้สำหรับโมเดลที่ถูกต้อง แต่ต้องการตรวจสอบที่นี่ว่าฉันไม่ได้พลาดอะไรบางอย่างที่ชัดเจนและสร้างโมเดลที่ไม่ดีโดยไม่แยกสิ่งต่าง ๆ ออกมา
แก้ไข:เพื่อตอบสนองต่อคำถามของ @ topepo ฉันกำลังสร้างแบบจำลองคุณสมบัติทางกายภาพที่วัดได้ของสารประกอบตามการปรับอินพุตทางเคมีของสูตร ฉันไม่สามารถพูดคุยเกี่ยวกับการใช้งานจริงของฉัน แต่ฉันจะทำตัวอย่างจากการกำหนดสีน้ำยางภายใน ฉันกำลังทดลองออกแบบที่เราผสมสารเคมี 4-5 ตัวอาจจะเล่นกับ% ของแข็งและระยะเวลาในการให้ความร้อนแก่โซลูชันพอลิเมอร์เพื่อปรับระดับการเกิดพอลิเมอร์
จากนั้นเราอาจทำการวัดการไหล, น้ำหนักโมเลกุล, ความแข็งของการเคลือบสี, การกันน้ำและอื่น ๆ
เรามีการจำลองแบบที่ดีของตัวแปรหลายตัว แต่มีการจำลองแบบจริงเพียงเล็กน้อยในแง่ที่ว่าทุกระดับ DOE เหมือนกันทุกประการ ชุดข้อมูลทั้งหมดคือ 80 การสังเกตและอาจจะซ้ำกัน 4-5 รายการ เราได้ทำการทดสอบ 15 ครั้งและเราอาจทำการทดสอบได้ 5-6 ครั้งสำหรับการสังเกตทุกครั้ง คำตอบบางส่วนมีอยู่ 25-50% ของข้อมูล
จากที่นี่เราต้องการจำลองผลกระทบของตัวทำนาย 7 ตัวของเราต่อคุณสมบัติของเอาต์พุตและปรับให้เหมาะสมเพื่อกำหนดเป้าหมายพื้นที่การออกแบบใหม่ที่น่าจะให้คุณสมบัติที่ต้องการมากที่สุด
(ดังนั้นคำถามของฉันที่นี่เมื่อฉันมีรูปแบบการฝึกอบรมมันจะดีที่จะทำ "ย้อนกลับ" และฟีดในการตอบสนองที่ต้องการเพื่อให้ได้เดาที่ดีที่สุดในระดับการป้อนข้อมูลที่เป็นไปได้ที่จะลองต่อไป)
data_set1
ฉันจะพิจารณาขั้นตอนที่ดำเนินการโดยLGOCV
การตรวจสอบข้ามได้อย่างไร จากการอ่านของฉันฉันสมมติว่า 1) caret
วนซ้ำผ่านการปรับพารามิเตอร์data_set1
แล้ว 2) เก็บ params เหล่านั้นคงที่และ 3) สร้าง "sub model" โดยใช้ params จาก # 1 สำหรับp = 0.8
ตัวอย่างแต่ละตัวอย่างdata_set1
และทดสอบการทำนายที่เหลือ 0.2 เพื่อวัดความแม่นยำ . นั่นเป็นบทสรุปที่สมเหตุสมผลหรือไม่?