ตามที่แนะนำแบนด์วิดธ์สูงนั้นขึ้นอยู่กับว่าคุณกำลังใช้ SVM แบบเชิงเส้นหรือแบบไม่เชิงเส้น (เป็นแบบเชิงความเร็วถ้าเคอร์เนลไม่ได้ใช้มันเป็นตัวแยกประเภทแบบเส้นตรงระยะขอบสูงสุดแทนที่จะเป็น SVM)
ลักษณนามเชิงเส้นตรงสูงสุดไม่แตกต่างจากลักษณนามเชิงเส้นอื่น ๆ ในกรณีที่กระบวนการสร้างข้อมูลหมายความว่ามีการโต้ตอบระหว่างแอ็ตทริบิวต์ดังนั้นการจัดเตรียมเงื่อนไขการโต้ตอบเหล่านั้นน่าจะปรับปรุงประสิทธิภาพ ลักษณนามเชิงเส้นขอบสูงสุดนั้นคล้ายกับการถดถอยของสันที่มีความแตกต่างเล็กน้อยในระยะเวลาการลงโทษที่ออกแบบมาเพื่อหลีกเลี่ยงการ overfitting (ให้ค่าที่เหมาะสมสำหรับพารามิเตอร์ normalization) และในกรณีส่วนใหญ่การถดถอยสันและสูงสุดลักษณนาม
หากคุณคิดว่าคำที่ใช้ในการโต้ตอบนั้นมีความสำคัญคุณก็สามารถนำคำเหล่านั้นไปใช้ในพื้นที่คุณลักษณะของ SVM ได้โดยใช้เคอร์เนลซึ่ง จะให้พื้นที่คุณลักษณะซึ่งแต่ละแกนแสดงถึงชื่อโมโนของคำสั่งหรือน้อยกว่าพารามิเตอร์มีผลต่อการให้น้ำหนักแบบสัมพัทธ์ของชื่อคำสั่งต่างกัน ดังนั้น SVM ที่มีเคอร์เนลโพลิโนเมียลจึงเทียบเท่ากับแบบจำลองพหุนามในพื้นที่ของแอตทริบิวต์ซึ่งรวมเอาการโต้ตอบเหล่านั้นโดยปริยาย d cK(x,x′)=(x⋅x′+c)ddc
ด้วยคุณสมบัติที่เพียงพอตัวจําแนกเชิงเส้นใด ๆสามารถใส่ข้อมูลได้เล็กน้อย IIRC จุดใน "ตำแหน่งทั่วไป" ในพื้นที่มิติสามารถแตก (แยกในลักษณะใดก็ได้) โดยไฮเปอร์ระนาบ (มิติ cf VC) การทำเช่นนี้โดยทั่วไปจะส่งผลให้เกิดการปรับตัวที่รุนแรงเกินไปและควรหลีกเลี่ยง จุดสูงสุดของการแยกประเภทมาร์จิ้นสูงสุดคือการ จำกัด การปรับตัวมากเกินไปโดยการเพิ่มคำว่าการลงโทษที่หมายถึงการแยกที่ใหญ่ที่สุดที่ทำได้ (ซึ่งจะต้องมีการเบี่ยงเบนที่ยิ่งใหญ่ที่สุดจากตัวอย่างการฝึกอบรมใด ๆ ซึ่งหมายความว่าคุณสามารถแปลงข้อมูลให้เป็นพื้นที่มิติที่สูงมาก (ซึ่งโมเดลเชิงเส้นมีประสิทธิภาพมาก) โดยไม่เกิดการปรับตัวที่มากเกินไปn - 1nn−1
โปรดทราบว่าเมล็ดบางส่วนทำให้เกิดมิติของพื้นที่ที่ไม่มีที่สิ้นสุดซึ่งการจำแนกประเภท "เล็กน้อย" นั้นรับประกันว่าจะเป็นไปได้สำหรับตัวอย่างการฝึกอบรมที่ จำกัด ใด ๆ ในตำแหน่งทั่วไป ตัวอย่างเช่นฟังก์ชันพื้นฐานของเรเดียนเคอร์เนลซึ่งพื้นที่คุณลักษณะเป็น orthant เชิงบวกของ hypersphere มิติที่ไม่มีที่สิ้นสุด เมล็ดดังกล่าวทำให้ SVM เป็นผู้ประเมินที่เป็นสากลซึ่งสามารถเป็นตัวแทนของขอบเขตการตัดสินใจใด ๆK(x,x′)=exp−γ∥x−x′∥2
อย่างไรก็ตามนี่เป็นเพียงส่วนหนึ่งของเรื่องราว ในทางปฏิบัติเรามักจะใช้ SVM แบบ soft-margin ซึ่งได้รับอนุญาตให้ละเมิดข้อ จำกัด ของขอบและมีพารามิเตอร์ regularization ที่ควบคุมการแลกเปลี่ยนระหว่างการเพิ่มระยะขอบ (ซึ่งเป็นระยะการลงโทษที่คล้ายกับที่ใช้ใน การถดถอยของสันเขา) และขนาดของตัวแปรหย่อน (ซึ่งคล้ายกับการสูญเสียในตัวอย่างการฝึกอบรม) จากนั้นเราหลีกเลี่ยงการปรับให้เหมาะสมมากเกินไปโดยการปรับพารามิเตอร์ regularsation ตัวอย่างเช่นโดยการลดข้อผิดพลาดการตรวจสอบข้าม (หรือข้อผิดพลาดบางอย่างในข้อผิดพลาดการลาออกหนึ่งครั้ง) เช่นเดียวกับที่เราทำในกรณีของการถดถอยสัน
ดังนั้นในขณะที่ SVM สามารถจำแนกชุดการฝึกอบรมได้เล็กน้อยโดยทั่วไปแล้วจะทำเช่นนั้นเฉพาะหากการกำหนดมาตรฐานและพารามิเตอร์เคอร์เนลไม่ถูกต้อง กุญแจสำคัญในการบรรลุผลลัพธ์ที่ดีกับรุ่นเคอร์เนลใด ๆ อยู่ในการเลือกเคอร์เนลที่เหมาะสมจากนั้นในการปรับแต่งเคอร์เนลและพารามิเตอร์การทำให้เป็นปกติเพื่อหลีกเลี่ยงข้อมูลที่ไม่เหมาะสม