ร่อนเป็นวิธีที่ดีในการแยกฟีเจอร์จากรูปภาพหรือไม่?


13

ฉันกำลังพยายามดึงคุณสมบัติต่าง ๆ จากรูปภาพ แต่ฉันไม่สามารถรับคะแนนที่ต้องการแยกได้และทำให้รูปภาพของฉันไม่สามารถจับคู่กับแม่แบบได้

มีจุดตรวจที่ฉันต้องทำก่อนที่จะใช้ SIFT กับภาพของฉันเพื่อให้ได้ผลลัพธ์ที่ดีหรือไม่? ตัวอย่างเช่นภาพเทมเพลตคือ;
ป้อนคำอธิบายรูปภาพที่นี่

รูปภาพเป้าหมาย ป้อนคำอธิบายรูปภาพที่นี่


1
ขึ้นอยู่กับประเภทของภาพและสิ่งที่คุณต้องการใช้คุณสมบัติ ข้อมูลเพิ่มเติมโปรด

คำตอบ:


14

สิ่งที่คุณควรทำเมื่อจับคู่แม่แบบกับภาพโดยใช้ร่อนคือการร่อนกับแม่แบบของคุณแล้วมองหาคุณลักษณะร่อนเหล่านั้นในการจัดเรียงในฉากของคุณ

Rule of thumb: เปรียบเทียบเหมือนจะชอบ

Sift (เทมเพลต) มีอยู่ใน Sift (รูปภาพ)

คุณไม่สามารถปรับแต่ง Sift เพื่อแยก "ฟีเจอร์ที่คุณต้องการ" Sift * ใช้มาตรการที่ไม่เปลี่ยนแปลงเพื่อค้นหาคุณลักษณะที่เชื่อว่าสำคัญที่สุด (* Chris A)

หากคุณต้องการให้ค้นหาคุณสมบัติเฉพาะจากแม่แบบของคุณให้สร้างแม่แบบที่มีขนาดเล็กลงของคุณสมบัติเหล่านั้นและค้นหาคุณสมบัติเหล่านั้น

เพียงข้อเสนอแนะ ฉันไม่ทราบว่าคุณกำลังพยายามใช้เทมเพลตประเภทใดกับประเภทของฉากหรือภาพ


7
+1 ฉันเห็นด้วย ยกเว้นสิ่งหนึ่ง SIFT ไม่พบคุณลักษณะที่ไม่เปลี่ยนแปลงมากที่สุด ใช้มาตรการที่ไม่เปลี่ยนแปลงเพื่อค้นหาคุณลักษณะที่เชื่อว่าสำคัญที่สุด

7

ฉันไม่แน่ใจว่าคุณต้องการจับคู่สองภาพ (เช่นค้นหาจุดทั่วไป) หรือคุณต้องการลองบางอย่างเช่น CBIR (การดึงภาพตามเนื้อหา - ค้นหาฐานข้อมูลด้วยภาพเทมเพลตเพื่อค้นหาสิ่งที่มี วัตถุ).

ฉันกำลังทำการวิจัย CBIR ดังนั้นฉันค่อนข้างทันสมัยกับวิธีการปัจจุบัน ที่นี่และนี่คือลิงค์ไปสู่คำตอบของฉันสำหรับปัญหาที่คล้ายกับของคุณจาก stackoverflow คุณควรดู

ตอนนี้พูดถึง SIFT สักหน่อย เมื่อหากถูกนำมาใช้เป็นครั้งแรกโดย Lowe คำว่า SIFT จะนำไปใช้กับกระบวนการตรวจจับคุณลักษณะและให้คำอธิบายคุณลักษณะที่คำนวณจากจุดสนใจที่ตรวจพบ จนถึงทุกวันนี้ SIFT descriptorsได้พิสูจน์แล้วว่ายอดเยี่ยมอย่างไม่น่าเชื่อ ตัวอธิบายมีคุณสมบัติเจ๋ง ๆ ที่ @Totero พูดถึงแล้ว

ในทางกลับกันวิธีการตรวจจับของ SIFT ซึ่งปัจจุบันเรียกว่า DoG (ความแตกต่างของ Gaussians) มากขึ้นเรื่อย ๆ ไม่ได้เป็นสิ่งที่ล้ำสมัยอีกต่อไป มันยังคงใช้กันอย่างแพร่หลาย แต่สำหรับกระบวนการตรวจจับคุณสมบัติมีวิธีการเพิ่มเติมในวันนี้ซึ่งบางวิธีนั้นดีกว่าหรือเติมเต็มประเภทของ keypoint ที่ไม่แปรเปลี่ยนของกระบวนการ DoG

เอกสารปัจจุบันส่วนใหญ่ (ดูที่ลิงก์ในคำถาม stackoverflow ที่เชื่อมโยง) มีแนวปฏิบัติที่ดีอีกข้อหนึ่ง: พวกเขารวมวิธีการตรวจสอบคุณสมบัติหลายวิธีแล้วใช้ SIFT descriptor (ซึ่งยังคงเป็นหินบ่งบอก) เพื่อคำนวณการแทนเวกเตอร์ที่ไม่แปรเปลี่ยน ขณะนี้ฉันกำลังทำงานกับการผสมผสานของ DoG (พวกเขามุ่งเน้นไปที่ส่วนที่เหมือนมุมของภาพ) และภูมิภาคของ MSER (พวกเขามุ่งเน้นไปที่จุดที่โดดเด่นเหมือนหยดผ่านหลายสเกล) คุณอาจต้องการลองและทดสอบและเพิ่มฟีเจอร์ของอุปกรณ์ตรวจจับในนั้นหากคุณพบว่าชุดค่าผสมนี้ไม่เป็นที่พอใจในฐานข้อมูลภาพของคุณ

นอกจากนี้หากคุณสนใจนี่คือบทความที่ประเมิน preformances ของชุดตรวจจับและตัวอธิบายที่แตกต่างกัน ฉันยังไม่ได้อ่านตั้งแต่DoG & MSER + SIFTทำงานได้ดีสำหรับฉัน แต่ฉันอ่านมันขาด ๆหาย ๆ และกระดาษค่อนข้างดี

PS: ใช้ google scholar หากคุณไม่สามารถเข้าถึงฐานข้อมูล IEEEXplore ที่ฉันเชื่อมโยง


เพียงชี้แจงขนาดเล็ก: สุนัขย่อมาจากความแตกต่างของเสียน (ความแตกต่างระหว่างสองตอบสนองกรองเกาส์)
Libor

2

การสร้างคำตอบก่อนหน้า:

(1) คุณสามารถใช้ SIFT (หรือตัวแปรอื่นที่ปรับปรุงแล้วของ local-patch descriptor นี้) ด้วยการสุ่มตัวอย่างหนาแน่นแทนที่จะเป็นตัวตรวจจับ inbuilt คุณสามารถเลือกขนาดของแพทช์ท้องถิ่นและความหนาแน่นของการสุ่มตัวอย่างเพื่อให้เหมาะกับความต้องการด้านประสิทธิภาพและค่าใช้จ่ายในการคำนวณ

(2) SIFT เป็นตัวบ่งชี้เลียนแบบค่าคงที่สำหรับการจับคู่สเตอริโอพื้นฐานกว้าง ซึ่งหมายความว่า SIFT ทำงานได้ดีเมื่อคุณถ่ายภาพและชักจูงให้เลียนแบบการแปลงมันโดยที่ 'แม่แบบ' จะต้องปรากฏในภาพเป้าหมายแม้ว่าจะมีการแปลง

คำแนะนำ: (a) สร้างฐานข้อมูลภาพแม่แบบ (ถ้าเป็นไปได้) เพื่อปรับปรุงโอกาสในการตรวจจับภาพ

(b) คุณสามารถใช้โมเดล BoW เป็นพื้นฐานถ้าคุณเลือกที่จะใช้แนวทาง CBIR กับงานของคุณ

(c) ครอบตัดภาพเทมเพลตของคุณไปยังส่วนที่เกี่ยวข้องเท่านั้นและใช้ SIFT ที่มีความหนาแน่นสูง http://www.vlfeat.org/overview/dsift.html

(4) ในภายหลังคุณอาจต้องการลองใช้ตัวอธิบายแบบ mutli-scale เช่น PHOG (Pyramidal Histogram ของการไล่ระดับสี) เป็นต้นซึ่งอาจช่วยปรับปรุงผลลัพธ์ได้ http://www.vlfeat.org/overview/dsift.html#tut.dsift.phow

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.