ความแตกต่างที่สำคัญบางประการซึ่งอยู่ก่อนหน้าคำอธิบายที่ยาวกว่านี้คือ:
- Crucially: ระยะทาง Jeffries-Matusita นำไปใช้กับการแจกแจงมากกว่าเวกเตอร์ทั่วไป
- สูตรระยะทาง JM ที่คุณอ้างอิงด้านบนใช้กับเวกเตอร์ที่เป็นตัวแทนของการแจกแจงความน่าจะเป็นแบบไม่ต่อเนื่อง (เช่นเวกเตอร์ที่รวมเป็น 1)
- ซึ่งแตกต่างจากระยะทางแบบยุคลิด, ระยะทาง JM สามารถกำหนดให้เป็นแบบกระจายใด ๆ ที่ระยะทาง Bhattacharrya สามารถกำหนดได้
- ระยะทาง JM ได้ผ่านระยะทาง Bhattacharrya การตีความความน่าจะเป็น
เจฟฟรีส์ - Matusita ระยะทางซึ่งดูเหมือนว่าจะได้รับความนิยมในวรรณคดีการสำรวจระยะไกลโดยเฉพาะคือการเปลี่ยนแปลงของระยะทาง Bhattacharrya (วัดที่เป็นที่นิยมของความแตกต่างระหว่างสองกระจายแสดงที่นี่เป็น ) จากระยะไปยังช่วงที่กำหนด : [ 0 , inf )ขp , q[ 0 , inf )[ 0 , 2]-√]
JMp , q= 2 ( 1 - ประสบการณ์( - b ( p , q)) )---------------√
ข้อได้เปรียบในทางปฏิบัติของระยะทาง JM ตามรายงานนี้คือมาตรการนี้ "มีแนวโน้มที่จะระงับค่าการแยกสูงในขณะที่เน้นค่าการแยกต่ำมาก"
ระยะทาง Bhattacharrya วัดความแตกต่างของการแจกแจงสองและในความต่อเนื่องทางนามธรรมต่อไปนี้:
ถ้าการกระจายและถูกบันทึกโดยฮิสโทแกรมแสดงด้วยเวกเตอร์ความยาวของหน่วย (โดยที่องค์ประกอบ th คือจำนวนที่ถูกทำให้เป็นมาตรฐานสำหรับ th ของถังขยะ ) สิ่งนี้จะกลายเป็น:
และดังนั้นระยะทาง JM สำหรับสองฮิสโทแกรมคือ:
ซึ่งสังเกตว่าสำหรับฮิสโตแกรมที่ทำให้เป็นมาตรฐานQ ข( P , Q ) = - LN ∫ √พีQ
b ( p , q) = - ln∫p ( x ) q( x )-------√dx
พีQผมผมยังไม่มีข้อความb ( p , q) = - lnΣi = 1ยังไม่มีข้อความพีผม⋅ qผม-----√
JMp , q= 2 ( 1 - ∑i = 1ยังไม่มีข้อความพีผม⋅ qผม-----√)----------------⎷
Σผมพีผม= 1เหมือนกับสูตรที่คุณให้ไว้ด้านบน:
JMp , q= ∑i = 1ยังไม่มีข้อความ( หน้าผม--√- คิวผม--√)2--------------⎷= ∑i = 1ยังไม่มีข้อความ( หน้าผม- 2 หน้าผม--√Qผม--√+ qผม)-------------------⎷= 2 ( 1 - ∑i = 1ยังไม่มีข้อความพีผม⋅ qผม-----√)----------------⎷