คำถามติดแท็ก computer-vision

4
วิธีการเลือกกล้องสำหรับระบบวิชันสเตอริโอ
ฉันกำลังอยู่ระหว่างการสร้างระบบการมองเห็นแบบสเตอริโอเพื่อใช้กับ UGV ระบบนี้ใช้สำหรับหุ่นยนต์ที่จะใช้ในการแข่งขันซึ่งหุ่นยนต์นั้นถูก teleoperated เพื่อค้นหาหินสีที่มีขนาดค่อนข้างเล็กในสนามกลางแจ้งขนาดใหญ่ ฉันเข้าใจวิธีการปรับเทียบระบบดังกล่าวและประมวลผลข้อมูลสำหรับระบบการมองเห็นสเตอริโอ อย่างไรก็ตามฉันไม่ทราบวิธีเลือกกล้องสำหรับระบบดังกล่าว แนวทางปฏิบัติที่ดีที่สุดในการเลือกกล้องสำหรับระบบวิชันสเตอริโอคืออะไร

4
วิสัยทัศน์กล้องเดียวและระบบการทำแผนที่
เมื่อไม่นานมานี้ฉันเห็นตัวอย่างของ 'ของเล่นถัง' ขนาดเล็กที่มีกล้องเดียวติดตั้งอยู่ รถถังคันนี้สามารถขับไปรอบ ๆ พื้นและตรวจจับวัตถุแล้วเคลื่อนย้าย / คัดท้ายเพื่อหลีกเลี่ยงพวกมัน ส่วนที่น่าสนใจคือมันใช้ระบบการมองเห็นกล้องเดียวและเท่าที่ผมจำได้ก็คือการใช้ประโยชน์จากพื้นราบ จากนั้นใช้อัตราที่คุณสมบัติถ่ายในฉากที่สัมพันธ์กับมอเตอร์และทิศทางของการเดินทางเพื่อประเมินผลและทำแผนที่ฉาก ทุกคนสามารถส่งพอยน์เตอร์ให้ฉันเพื่อค้นหาข้อมูลเพิ่มเติมเกี่ยวกับสิ่งนี้หรือชี้ไปที่โค้ดเบสที่สามารถทำได้ เหตุผลที่ฉันถามคือนี่เป็นระบบกล้องเดียวเมื่อหลายปีก่อน (5+) และดังนั้น (จากสิ่งที่ฉันจำได้) คือการคำนวณที่ค่อนข้างต่ำ ฉันตั้งใจจะลองใช้ Raspberry PI เพื่อสร้างรถยนต์ / รถถังที่แมปห้องหรือชุดของห้อง

4
ความลึกผกผัน (เป็น odometry) คืออะไรและทำไมฉันถึงใช้มัน
อ่านเอกสารเกี่ยวกับ odometry ที่เห็นได้ชัดหลายคนใช้ความลึกผกผัน มันเป็นเพียงการผกผันทางคณิตศาสตร์ของความลึก (หมายถึง 1 / d) หรือมันเป็นตัวแทนอย่างอื่น และข้อดีของการใช้มันคืออะไร?

1
วิธีที่ดีที่สุดในการคำนวณความเชื่อความน่าจะเป็นของหุ่นยนต์ที่ติดตั้งเซ็นเซอร์ภาพคืออะไร
ฉันพยายามใช้ 'พื้นที่ความเชื่อ' สำหรับหุ่นยนต์ที่มีกล้องเป็นเซ็นเซอร์หลัก คล้ายกับ SLAM หุ่นยนต์มีแผนที่เป็นจุด 3 มิติและเป็นภาษาท้องถิ่นโดยทำการจับคู่ 2D-3D กับสภาพแวดล้อมในทุกขั้นตอน สำหรับวัตถุประสงค์ของคำถามนี้ฉันสมมติว่าแผนที่จะไม่เปลี่ยนแปลง ในฐานะส่วนหนึ่งของการวางแผนพื้นที่แห่งความเชื่อฉันต้องการวางแผนเส้นทางสำหรับหุ่นยนต์ที่นำมาตั้งแต่ต้นจนถึงเป้าหมาย ดังนั้นฉันจะต้องสุ่มตัวอย่างสถานะที่เป็นไปได้ของหุ่นยนต์โดยไม่มีการเคลื่อนย้ายไปที่นั่นและการสังเกตที่หุ่นยนต์จะทำถ้ามันอยู่ในสถานะเหล่านั้นซึ่งร่วมกัน (แก้ไขฉันถ้าฉันผิด) ก่อให้เกิด แล้วจึงเข้ารหัสความไม่แน่นอนของการแปลที่จุดเหล่านั้น จากนั้นผู้วางแผนของฉันจะพยายามเชื่อมต่อโหนดที่ทำให้ฉันมีความไม่แน่นอนน้อยที่สุด (ความแปรปรวนร่วม) เนื่องจากความไม่แน่นอนของการแปลสำหรับหุ่นยนต์ที่ใช้กล้องนี้ขึ้นอยู่กับสิ่งต่าง ๆ เช่นจำนวนจุดคุณลักษณะที่สามารถมองเห็นได้จากสถานที่ที่กำหนดมุมหัวของหุ่นยนต์เป็นต้น: ฉันต้องการการประเมินว่า จะเป็นเพื่อตรวจสอบว่าฉันควรทิ้งมัน เพื่อไปที่นั่นฉันจะกำหนดรูปแบบการวัดสำหรับสิ่งนี้ได้อย่างไรมันจะเป็นรูปแบบการวัดของกล้องหรือจะเป็นสิ่งที่เกี่ยวข้องกับตำแหน่งของหุ่นยนต์หรือไม่ ฉันจะคาดเดาการวัดของฉันล่วงหน้าได้อย่างไรและฉันจะคำนวณความแปรปรวนร่วมของหุ่นยนต์ผ่านการวัดที่เดาได้อย่างไร แก้ไข: อ้างอิงหลักสำหรับฉันก็คือความคิดของอย่างรวดเร็วการสำรวจความเชื่อสุ่มต้นไม้ซึ่งเป็นส่วนขยายของวิธีการที่ความเชื่อถนนแผนที่ กระดาษอื่นที่เกี่ยวข้องใช้ RRBT เพื่อการวางแผนที่ จำกัด ในบทความนี้รัฐจะถูกสุ่มตัวอย่างคล้ายกับ RRT แบบดั้งเดิมซึ่งแสดงเป็นจุดยอดเป็นกราฟ แต่เมื่อมีการเชื่อมต่อจุดยอดอัลกอริทึมจะแพร่กระจายความเชื่อจากจุดสุดยอดปัจจุบันไปสู่ใหม่ (ฟังก์ชั่น PROPAGATE ในส่วน V ของ1 ) และนี่คือที่ที่ฉันติดอยู่: ฉันไม่เข้าใจอย่างเต็มที่ว่าฉันจะเผยแพร่ความเชื่อไปตามขอบโดยไม่ผ่านมันและได้รับการวัดใหม่ดังนั้นโควาเรียสใหม่จากการแปล กระดาษ RRBT กล่าวว่า "การคาดคะเนความแปรปรวนร่วมและสมการคาดการณ์ต้นทุนมีการใช้งานในฟังก์ชั่น PROPAGATE": แต่ถ้าใช้การทำนายเพียงอย่างเดียวจะรู้ได้อย่างไรว่ามีคุณสมบัติเพียงพอที่ตำแหน่งในอนาคตที่สามารถเพิ่ม / …

4
วิธีการรับเมฆจุดหนาแน่นจากกล้องสเตอริโอ?
ฉันพยายามใช้กล้องสเตอริโอเพื่อสร้างฉากใหม่ แต่โดยปกติฉันจะได้รับเมฆจุดเบาบาง (เช่นครึ่งภาพไม่มีข้อมูลเชิงลึกที่เหมาะสม) ฉันรู้ว่าอัลกอริธึมการประมวลผลสเตอริโอขึ้นอยู่กับการปรากฏตัวของพื้นผิวในภาพและมีพารามิเตอร์บางอย่างที่สามารถปรับแต่งเพื่อให้ได้ผลลัพธ์ที่ดีกว่าเช่นช่วงความแตกต่างหรือขนาดหน้าต่างความสัมพันธ์ ถึงแม้ว่าฉันจะปรับพารามิเตอร์เหล่านี้ แต่ฉันไม่สามารถรับผลลัพธ์ที่อยู่ใกล้กับสิ่งที่สามารถรับได้จากระยะไกลโดยใช้เซ็นเซอร์ที่ใช้งานอยู่เช่น Kinect เหตุผลที่ฉันต้องการนั่นก็เพราะว่าบ่อยครั้งที่มีเมฆจุดที่ตรงกับพื้นที่ใกล้เคียงไม่มีการทับซ้อนกันมากพอที่ฉันจะได้รับการแข่งขันดังนั้นการสร้างใหม่จึงมีความบกพร่องอย่างรุนแรง คำถามของฉันต่อผู้เชี่ยวชาญด้านการมองเห็นของคอมพิวเตอร์มีดังต่อไปนี้ฉันจะทำอย่างไรเพื่อให้ได้จุดเมฆทึบโดยทั่วไป (โดยไม่มีการดัดแปลงสภาพแวดล้อมในสำนักงานของฉัน)

7
ทำไมคนใช้กล้องแทนเซ็นเซอร์เลเซอร์สำหรับการนำทางหุ่นยนต์
ฉันกำลังทำงานกับการโลคัลไลเซชั่นและการนำทางของหุ่นยนต์ในสภาพแวดล้อมในเมือง ฉันต้องการใช้กล้องถ่ายรูป แต่ฉันสับสนเล็กน้อยเกี่ยวกับข้อมูล LRF หรือข้อมูลเลเซอร์อื่น ๆ ทำไมผู้คนถึงต้องการใช้กล้อง ทำไมไม่ใช้ LRF หรือข้อมูลเลเซอร์อื่น ๆ ใครช่วยอธิบายด้วยกล้องได้มั้ย

2
นำทาง Quadrotor สู่เป้าหมาย
ฉันกำลังทำงานกับควอดโรเตอร์ ฉันรู้ตำแหน่งของมัน -ที่ซึ่งฉันต้องการไป - ตำแหน่งเป้าหมายและจากนั้นฉันคำนวณเวกเตอร์ - เวกเตอร์หน่วยที่จะพาฉันไปยังเป้าหมายของฉัน:aaabbbccc c = b - a c = normalize(c) เนื่องจาก quadrotor สามารถเคลื่อนที่ในทิศทางใดก็ได้โดยไม่มีการหมุนสิ่งที่ฉันพยายามทำคือ หมุนโดยมุมเอียงของหุ่นยนต์ccc แยกออกเป็นองค์ประกอบx,yx,yx, y ส่งพวกเขาไปยังหุ่นยนต์เป็นมุมม้วนและระดับเสียง ปัญหาคือว่าถ้าหันเหเป็น 0 °± 5 แล้วก็ใช้งานได้ แต่ถ้าหันไปใกล้ +90 หรือ -90 มันจะล้มเหลวและหันไปทิศทางที่ผิด คำถามของฉันคือฉันขาดอะไรบางอย่างชัดเจนที่นี่?
9 quadcopter  uav  navigation  slam  kinect  computer-vision  algorithm  c++  ransac  mobile-robot  arduino  microcontroller  machine-learning  simulator  rcservo  arduino  software  wifi  c  software  simulator  children  multi-agent  ros  roomba  irobot-create  slam  kalman-filter  control  wiring  routing  motion  kinect  motor  electronics  power  mobile-robot  design  nxt  programming-languages  mindstorms  algorithm  not-exactly-c  nxt  programming-languages  mindstorms  not-exactly-c  raspberry-pi  operating-systems  mobile-robot  robotic-arm  sensors  kinect  nxt  programming-languages  mindstorms  sensors  circuit  motion-planning  algorithm  rrt  theory  design  electronics  accelerometer  calibration  arduino  sensors  accelerometer 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.