k-NN พูดคุยในแง่ที่ จำกัด มาก มันใช้ความเรียบเนียนของนักปราชญ์ (หรือสมมติฐานต่อเนื่อง) สมมติฐานนี้แสดงถึงว่ารูปแบบที่อยู่ใกล้กับพื้นที่คุณลักษณะส่วนใหญ่น่าจะเป็นของชั้นเดียวกัน ไม่มีความสม่ำเสมอในการใช้งานในการกระจายรูปแบบที่สามารถกู้คืนได้โดย k-NN
ดังนั้นจึงต้องใช้ตัวอย่างการฝึกอบรมตัวแทนซึ่งสามารถมีขนาดใหญ่มากโดยเฉพาะในกรณีของพื้นที่คุณลักษณะมิติสูง ยิ่งไปกว่านั้นตัวอย่างเหล่านี้ไม่สามารถใช้งานได้ ดังนั้นมันไม่สามารถเรียนรู้ค่าคงที่ได้ หากรูปแบบสามารถถูกเปลี่ยนรูปได้โดยไม่ต้องเปลี่ยนฉลากและตัวอย่างการฝึกอบรมไม่มีรูปแบบที่แปลงในรูปแบบที่ยอมรับได้ k-NN จะไม่จดจำรูปแบบการแปลงที่ไม่ได้นำเสนอในระหว่างการฝึกอบรม นี่เป็นเรื่องจริงเช่นสำหรับรูปภาพที่ถูกเลื่อนหรือหมุนถ้าไม่ได้แสดงในรูปแบบที่ไม่เปลี่ยนแปลงก่อนที่จะรัน k-NN k-NN ไม่สามารถสรุปได้แม้กระทั่งจากคุณสมบัติที่ไม่เกี่ยวข้อง
อีกตัวอย่างที่ค่อนข้างจะทำตามคือ ลองนึกภาพรูปแบบที่เป็นของคลาสที่แตกต่างกันกระจายเป็นระยะ (เช่นตามไซน์ - ถ้ามันน้อยกว่า 0, จากนั้นรูปแบบเป็นของคลาสหนึ่งและยิ่งใหญ่กว่านั้นรูปแบบนั้นเป็นคลาสอื่น) ชุดฝึกอบรมมีขอบเขต จำกัด ดังนั้นมันจะอยู่ในขอบเขตที่ จำกัด นอกข้อผิดพลาดการรู้จำภูมิภาคนี้จะเป็น 50% หนึ่งสามารถจินตนาการการถดถอยโลจิสติกกับฟังก์ชั่นพื้นฐานเป็นระยะที่จะทำงานได้ดีขึ้นมากในกรณีนี้ วิธีการอื่นจะสามารถเรียนรู้ระเบียบปฏิบัติอื่น ๆ ในการแจกแจงแบบแผนและคาดการณ์ได้ดี
ดังนั้นหากมีใครสงสัยว่าชุดข้อมูลที่มีอยู่ไม่ได้เป็นตัวแทนและความแปรปรวนของการแปลงรูปแบบบางอย่างควรจะประสบความสำเร็จนี่เป็นกรณีที่ควรเคลื่อนย้ายเกิน k-NN