ทำไมคนใช้กล้องแทนเซ็นเซอร์เลเซอร์สำหรับการนำทางหุ่นยนต์


11

ฉันกำลังทำงานกับการโลคัลไลเซชั่นและการนำทางของหุ่นยนต์ในสภาพแวดล้อมในเมือง ฉันต้องการใช้กล้องถ่ายรูป แต่ฉันสับสนเล็กน้อยเกี่ยวกับข้อมูล LRF หรือข้อมูลเลเซอร์อื่น ๆ

ทำไมผู้คนถึงต้องการใช้กล้อง

ทำไมไม่ใช้ LRF หรือข้อมูลเลเซอร์อื่น ๆ

ใครช่วยอธิบายด้วยกล้องได้มั้ย

คำตอบ:


15

เครื่องมือค้นหาระยะเลเซอร์ 3 มิติหรือ LIDAR เช่นหนึ่งตัวบนGoogle Carมีราคาแพงกว่ากล้องมาก เหตุผลอื่นคือแม้ว่าในกรณีของ LIDAR ระยะห่างของทุกพิกเซลจะมีอยู่ แต่ข้อมูลที่สร้างขึ้นเพื่อประมวลผลนั้นมีขนาดใหญ่มาก คุณต้องถ่ายโอนและประมวลผลข้อมูลเร็วขึ้นซึ่งจะออกมาอีกครั้งเมื่อค่าใช้จ่ายเพิ่มขึ้น ในที่สุดกล้องมักจะมีอายุการใช้งานที่ยาวนานขึ้นดังนั้นจึงจำเป็นต้องมีการบำรุงรักษาน้อยลง

ด้วยกล้องที่ค่อนข้างถูกและการมองเห็นคอมพิวเตอร์ก็สามารถบรรลุผลลัพธ์ที่ดีได้

ตัวอย่าง:

  1. การตรวจจับวัตถุ (โปรดทราบว่ากระเป๋าเดินทางที่ถูกดึงโดยบุคคลนั้นจะไม่ถูกเน้นด้วยสีแดง)
  2. การติดตาม

3
ค่าใช้จ่ายเป็นคำตอบอย่างแน่นอน เลเซอร์สแกนเนอร์คุณภาพเริ่มต้น (สำหรับผู้ใช้ปลายทาง) โดยทั่วไปประมาณ $ 10,000 กล้องคุณภาพประมาณหนึ่งในสิบของค่าใช้จ่าย
Chuck

1
คุณกำลังคิดถึง LIDAR ประเภทใด ฉันใช้กล้องที่ส่งคืนประมาณ 1,000 คะแนนต่อการสแกน (บนระนาบ 2D) แต่กล้องสมัยใหม่ทั่วไปส่งกลับล้านพิกเซลซึ่งเป็นข้อมูลที่มากขึ้น
user253751

2
@immibis - Velodyne VLP-16 ทำคะแนนได้ 300k คะแนนต่อวินาทีใน 16 เครื่องบินและ SICK LMS511 ทำคะแนนได้ 50k ต่อวินาทีใน 1 ระนาบ VLP-16 มีมุมมอง 360 องศาและประมาณ 8k, LMS511 มีมุมมอง 190 องศาและประมาณ 10k แต่มีความทนทานสำหรับการใช้งานในอุตสาหกรรม นี่คือการวัดระยะทางไม่ใช่รูปภาพ แน่นอนว่ากล้องสามารถส่งคืนความละเอียดที่สูงขึ้นได้ แต่โดยทั่วไปแล้วจะต้องใช้พลังยิงสูงในการทำสเตอริโอ ฯลฯ ซึ่งเฟรมนั้นลดขนาดลงจนเหลือความคมชัดต่ำมาก B&W หรืออัตราการรีเฟรชต่ำมาก
Chuck

1
ดังนั้นคะแนน 300k ต่อวินาทีเทียบกับ 50 ล้านพิกเซลต่อวินาที กล้องยังมีข้อมูลเพิ่มเติมในการถ่ายโอน แน่นอนว่าในกรณีใดกรณีหนึ่งคุณสามารถละทิ้งข้อมูล / ตัวอย่างได้หากคุณไม่สามารถประมวลผลข้อมูลทั้งหมดได้อย่างรวดเร็ว
user253751

4

นอกเหนือจากที่กล่าวไว้ในคำตอบของ Bence แล้วกล้องยังสามารถ:

  • คำนวณคุณสมบัติที่ซับซ้อนมากมายซึ่งส่งผลให้การจับคู่ระหว่างเฟรมและการรับรู้วัตถุมีประสิทธิภาพมาก
  • ความละเอียดเชิงมุมสูง (ต่ำโดยทั่วไป -> ช่วงสูงไปจาก -> 0.025 )0.50.025
  • ลดการใช้พลังงาน
  • เซ็นเซอร์แบบพาสซีฟ (ไม่ต้องใช้สัญญาณ 'สะอาด' ของเลเซอร์)

3

การนำทางในสภาพแวดล้อมในเมือง

อาจมีข้อ จำกัด ทางกฎหมายในการใช้งานทั้งนี้ขึ้นอยู่กับเลเซอร์ การวิ่งเล่นรอบ ๆ เมืองโดยการยิงลำแสงเลเซอร์ไปรอบ ๆ อาจต้องได้รับอนุญาต / ใบอนุญาตพิเศษ


5
แน่นอนว่าขึ้นอยู่กับเลเซอร์ แต่เราไม่ได้พูดถึงอาวุธเอ็นเตอร์ไพรส์ที่นี่ คุณไม่จำเป็นต้องได้รับอนุญาตหรือใบอนุญาตในการใช้เครื่องสแกนบาร์โค้ดเป็นต้น
David Richerby

LRF เชิงพาณิชย์ส่วนใหญ่ (Velodyne, Hokuyo) ใช้เลเซอร์ Class 1 และพวกมันปลอดภัยอย่างสมบูรณ์ Google, Uber และอื่น ๆ กำลังทดสอบต้นแบบกลางแจ้งของพวกเขาด้วยการติดตั้ง LRF ดังกล่าว ฉันไม่คิดว่าแผนกกฎหมายของพวกเขาจะเต็มไปด้วยข้อร้องเรียนจากผู้ปกครองที่เจ็บแค้น ..
HighVoltage

2

เหมือนคนอื่น ๆ ตอบแล้ว โดยทั่วไปแล้วกล้องราคาถูกกว่าL aser R ange F inders มาก

เมื่อคุณพูดถึงกล้องคุณหมายถึงกล้อง 2D ใช่มั้ย มีกล้อง 3D บางตัวเช่นifm O3D3xxตระกูลของกล้องที่มี กล้องเหล่านั้นอาจไม่มีความแม่นยำของเลเซอร์สแกนเนอร์ แต่ให้ข้อมูลความลึกแบบ 3 มิติในอัตราเฟรมที่สมเหตุสมผล ณ จุดราคา ~ 1k


1

มีข้อดีสำหรับการใช้ LIDAR สำหรับ SLAM เทียบกับกล้อง RGB มาตรฐานหรือไม่?

คุณสามารถตรวจสอบลิงค์นี้ที่ฉันได้ตอบคำถามที่คล้ายกันก่อนหน้านี้ (ข้อดีและข้อเสียของแต่ละ)

ในสภาพแวดล้อมของเมือง

หากคุณอ้างถึงรถยนต์ที่เป็นอิสระเช่นเดียวกับ Google มีข้อควรพิจารณาและข้อ จำกัด มากมาย (ความปลอดภัยค่าใช้จ่าย ฯลฯ )

หากคุณสนใจในการวิจัยและการเรียนรู้ฉันขอแนะนำให้คุณใช้แพลตฟอร์มฮาร์ดแวร์ใด ๆ ที่มีให้

โปรดทราบ:

  1. รถที่มี LIDAR ที่มีราคาแพงมากจะไม่สามารถขายได้อย่างง่ายดาย
  2. รถที่เคลื่อนที่โดยอัตโนมัติโดยรอบคนอาจถูกฆ่าในกรณีที่เกิดข้อผิดพลาด ดังนั้นการพิจารณาจึงแตกต่างจากการพัฒนาอัลกอริธึมเพื่อการวิจัยและการเรียนรู้

0

ฉันไม่คิดว่าผู้คน "ต้องการ" จริงๆที่จะใช้กล้องเท่านั้น หากนักวิจัยทุกคนสามารถซื้อ LiDAR ได้พวกเขาก็จะใส่ LiDARs ลงไปในสภาพแวดล้อมภายนอก

กล้องค่อนข้างถูกและมีข้อ จำกัด เพียงช่วงเดียวคือความละเอียดพิกเซล / ซุปเปอร์พิกเซลที่คุณสามารถประมวลผลในอัลกอริทึม / ซอฟต์แวร์ของคุณ

นักวิจัยส่วนใหญ่ (รวมถึงฉัน) ใช้กล้องแสงที่มีโครงสร้าง (แม้ว่าพวกเขาจะไม่ทำงานกลางแจ้งดังนั้นเราจึงเปลี่ยนไปใช้กล้อง RGB บนเซ็นเซอร์เหล่านี้เมื่อหุ่นยนต์อยู่นอกอาคาร) วิธีแก้ปัญหาแสงนี้คือเรายังใช้กล้องสเตอริโอ (ความสามารถในการมองเห็นสเตอริโอ / ความลึกหลายมุมมองซึ่งมีค่าใช้จ่ายในการคำนวณ) สำหรับการกำหนดความลึกโดยประมาณตามความสามารถในการประมวลผลของคอนโทรลเลอร์ / CPU โซลูชันอื่นที่ฉันยังไม่ได้สำรวจเป็นการส่วนตัวก็คือการใช้ Kinect / Asus Xtions หลายตัวที่คุณได้รับการยืนยันเชิงลึกเช่นเดียวกับกล้อง RGB หลายตัวสำหรับกลางแจ้ง

LiDAR มักจะมีราคาแพงมาก (ในพันดอลลาร์สำหรับคนดีจริงๆ) แม้ว่านี้อาจมีการเปลี่ยนแปลงในอนาคตกับบาง บริษัท ออกมากับ $ 250 "LiDARs" ชอบเก็บกวาด

ยิ่งไปกว่านั้น LRF's / LiDARs มีช่วงและความละเอียดที่ จำกัด (เช่นไกลกว่าระยะทางหนึ่งพวกเขาไม่สามารถแก้ไขความลึกได้อย่างชัดเจนและดังนั้นพวกเขาจึงคืนค่า 0 (ฉันไม่แน่ใจเกี่ยวกับ LiDARs โดยเฉพาะ แต่กล้องความลึกมีค่าสูงสุด เช่นเดียวกับช่วงต่ำสุด (ด้านล่างซึ่ง) พวกเขาไม่ให้คุณลึก

หวังว่านี่จะช่วยได้


0

ฉันจะเพิ่มอีกเหตุผลที่ตรงไปตรงมาฉันหวังว่าคนอื่นจะนำขึ้น เพราะเหตุใดเราจึงสร้างหุ่นยนต์ตั้งแต่แรก เครื่องที่ไร้อารมณ์เพื่อทำงานสกปรกของเรา?

ฉันคิดว่าความจริงที่ว่าหุ่นยนต์สามารถพึ่งพา "วิสัยทัศน์" แบบเดียวกับที่สัตว์เลี้ยงลูกด้วยนมทำให้พวกเขาเหมือนเรามากขึ้น ดังนั้นสำหรับฉันเลเซอร์และ sonars กำลังนอกใจ สิ่งที่ IMHO เราควรมุ่งเน้นในการโกงคือการสร้างกล้องที่ดีกว่าด้วยอัตราเฟรมที่สูงขึ้นช่วงไดนามิกที่สูงขึ้นและสิ่งประดิษฐ์น้อยลงและเขียนซอฟต์แวร์ที่สามารถรับข้อมูลที่จำเป็นจากพวกเขา (หรือพูดในเทอม 2012 โพสต์ฝึกอบรมเครือข่ายของเราเพื่อรับข้อมูลที่ต้องการจากพวกเขา)

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.