คำถามติดแท็ก 3d

3
ฉันจะสร้างโครงสร้าง 3 มิติใหม่จากชุดภาพได้อย่างไร?
ฉันมีชุดของรูปทรง (ชุดของส่วนของเส้น) จัดกลุ่มด้วยวิธีดังต่อไปนี้: Si={I0,Iπ4,I2π4,…,I7π4}Si={I0,Iπ4,I2π4,…,I7π4}S_i = \{I^0, I^\frac{\pi}{4}, I^\frac{2\pi}{4}, \ldots, I^\frac{7\pi}{4} \} ที่ไหน SiSiS_iแสดงถึงลำดับของภาพถ่ายของวัตถุรูปธรรมหนึ่งชิ้น IjIjI^jแสดงถึงภาพโดยมีมุมมอง (หมายถึงมุมมองด้านหน้า) jthjthj^{th}j=0j=0j=0 นี่คือตัวอย่างของ (มุมมองด้านหลัง): IπIπI^\pi ฉันจะสร้างโครงสร้าง 3 มิติของวัตถุด้วยกำหนดได้อย่างไรSiSiS_i ใครบางคนสามารถชี้ให้ฉันไปที่เอกสารบางส่วนหรือแม้กระทั่งให้ฉันคำหลักบางอย่าง ฉันรู้ว่ามีบทความจำนวนมากที่ทำงานกับกลุ่มเมฆของจุดและอื่น ๆ แต่สิ่งเหล่านั้นไม่ทำงานในขณะที่ฉันทำงานกับสาย

3
การเรียงลำดับส่วน biquad สำหรับตัวกรองคำสั่งซื้อที่สูงขึ้นทำงานอย่างไร
ฉันกำลังพยายามใช้ตัวกรอง IIR อันดับที่ 8 และบันทึกย่อของแอปพลิเคชันและหนังสือทุกเล่มที่ฉันได้อ่านบอกว่ามันเป็นการดีที่สุดที่จะใช้ตัวกรองลำดับที่สองมากกว่านั้นเป็นส่วนที่สอง ฉันใช้tf2sosMATLAB เพื่อรับค่าสัมประสิทธิ์สำหรับส่วนที่สองซึ่งทำให้ฉันมีค่า 6x4 coeffs สำหรับส่วนของคำสั่งที่สอง 4 ตามที่คาดไว้ ก่อนการใช้งานเป็น SOS ตัวกรองลำดับที่ 8 จำเป็นต้องเก็บค่าตัวอย่าง 7 ค่าก่อนหน้า (และค่าเอาต์พุตด้วย) ตอนนี้เมื่อดำเนินการตามลำดับส่วนที่สองโฟลว์ทำงานอย่างไรจากอินพุตไปยังเอาต์พุตฉันต้องเก็บค่าตัวอย่างก่อนหน้านี้เพียง 2 ค่าหรือไม่ หรือผลลัพธ์ของตัวกรองตัวแรกป้อนเช่นเดียวx_inกับตัวกรองที่สองและอื่น ๆ ?
20 filters  filter-design  infinite-impulse-response  biquad  audio  image-processing  distance-metrics  algorithms  interpolation  audio  hardware  performance  sampling  computer-vision  dsp-core  music  frequency-spectrum  matlab  power-spectral-density  filter-design  ica  source-separation  fourier-transform  fourier-transform  sampling  bandpass  audio  algorithms  edge-detection  filters  computer-vision  stereo-vision  filters  finite-impulse-response  infinite-impulse-response  image-processing  blur  impulse-response  state-space  linear-systems  dft  floating-point  software-implementation  oscillator  matched-filter  digital-communications  digital-communications  deconvolution  continuous-signals  discrete-signals  transfer-function  image-processing  computer-vision  3d 

3
จะคำนวณกล้องถ่ายรูปอย่างไรจาก Homography matrix
ว่าฉันใช้กล้องสอบเทียบเพียงหนึ่ง จากกล้องนี้ผมได้รับภาพ A และ B ฉันรู้ homography ระหว่าง A และ B ที่คำนวณผ่านOpenCV 's findHomography () ฉันรู้ว่าโพสท่า (เมทริกซ์การหมุน R และเวกเตอร์การแปล t) ของภาพ A และฉันต้องการรูปของบีเมื่อฉันได้รับมันฉันคิดว่าฉันจะสามารถคำนวณทุก ๆ ท่าของภาพต่อไปนี้ได้ คุณรู้หรือไม่ว่าการนำโพรเซสซิงของ B มาใช้? ฉันพบบทความหลายบทความบนเว็บ แต่ไม่พบวิธีแก้ปัญหาที่ใช้งานได้ง่าย ...

1
วิธีการประมวลผลภาพสำหรับการเลือกแหลมคม
ฉันมีอินพุตเป็นภาพไบนารี 3Dและผลลัพธ์ที่ต้องการด้านล่าง: การป้อนข้อมูล: ผลลัพธ์ที่ต้องการ: ฉันควรมองหาวิธีการประมวลผลภาพแบบใดหากฉันมีเพียงวัตถุแหลมคมเหลืออยู่เช่นเดียวกับผลลัพธ์ที่ต้องการด้านบน

1
การแสดงออกเชิงวิเคราะห์สำหรับ eigenvector ของเมทริกซ์สมมาตรจริง 3x3 หรือไม่?
ฉันกำลังเขียนอัลกอริทึมที่ประมวลผลภาพ 3 มิติตามช่วงเวลาของความเฉื่อย ฉันมีเมทริกซ์สมมาตรจริง 3x3 ซึ่งฉันต้องหาค่าลักษณะเฉพาะ ฉันได้พบอัลกอริทึมทั่วไปที่หลากหลายสำหรับการทำเมทริกซ์ตามแนวทแยงมุมออกไป แต่ฉันไม่สามารถรู้ได้ว่ามีนิพจน์การวิเคราะห์สำหรับ 3 eigenvctors ของเมทริกซ์ดังกล่าวหรือไม่ ใครบางคนที่มีความเชี่ยวชาญในวิชาคณิตศาสตร์รู้หรือไม่? แก้ไข สำหรับบันทึกที่นี่คือสิ่งที่ฉันได้พบกับคำถามตัวเอง ดังที่ Matthias Odisio พูดไว้คุณไม่สามารถลงไปสู่การแสดงออกเชิงวิเคราะห์อย่างง่ายๆ ได้ทันทีที่คุณมีเมทริกซ์ 3x3 ฉันได้พบ แต่กระดาษเฉพาะสำหรับกรณีพิเศษเมทริกซ์เฮอร์เมียน 3x3 ซึ่งเปรียบเทียบวิธีการเชิงตัวเลขแบบต่างๆ: http://arxiv.org/abs/physics/0610206 นี่คือรหัส C และ Fortran ของกระดาษ: http://www.mpi-hd.mpg.de/personalhomes/globes/3x3/index.html
11 3d  matrix 

1
ให้คำแนะนำในการตรวจสอบสถานที่สำคัญทางกายวิภาคในปริมาณที่สร้างขึ้นใหม่ CT
ฉันพยายามตรวจสอบสถานที่สำคัญทางกายวิภาคที่กำหนดโดยแพทย์ในปริมาณที่สร้างขึ้นใหม่โดยอัตโนมัติ CT แพทย์ใช้สถานที่สำคัญเหล่านี้เพื่อวัดพารามิเตอร์เฉพาะของผู้ป่วย ฉันพยายามใช้ตัวบอกคุณสมบัติ SIFT เนื่องจากสถานที่สำคัญทางกายวิภาคเหล่านี้เป็น "จุดสำคัญ" สิ่งนี้ทำงานได้ไม่ดีนักเนื่องจากจุดสังเกตคือจุด (หรือพื้นที่เล็ก ๆ ) ซึ่งโดยทั่วไปไม่ใช่ "จุดสนใจ" ตามที่กำหนดโดย SIFT ฉันกำลังมองหาอัลกอริธึมการจับคู่รูปแบบ / เทมเพลตมากมาย แต่เมื่อฉันไม่มีปัญหาการหมุน / การแปล / สเกลฉันพบว่าคุณสมบัติที่แยกออกมานั้นไม่แยกความแตกต่างของจุดสังเกตแต่ละจุดให้เพียงพอ (จากสถานที่สำคัญอื่น ๆ จุดสังเกตที่สำคัญ) เพื่อฝึกอบรมตัวจําแนกที่มีประสิทธิภาพเพียงพอ (อย่างน้อย 80% ของความถูกต้องในการตรวจจับ) โปรดแจ้งให้เราทราบหากฉันไม่ได้ระบุปัญหาให้ชัดเจนเพียงพอ ฉันขอขอบคุณคำแนะนำใด ๆ ขอบคุณ! ภาพตัวอย่าง: กากบาท x ตัวเล็กและสี่เหลี่ยมจัตุรัสเล็ก ๆ อยู่เหนือจุดสังเกตที่ฉันต้องการตรวจจับ (ฉันลืมที่จะพูดถึงว่าฉันมีชุดฝึกอบรมพร้อมกับจุดสังเกตที่มีป้ายกำกับ) เส้นสีขาวแสดงถึงมาตรการที่ใช้ เหล่านี้เป็นบางกรณีที่แตกต่างกัน (แน่นอนฉันไม่สามารถโพสต์เสียงสามมิติเต็มรูปแบบ)

3
การปรับเทียบกล้อง / รุ่นกล้องรูเข็มและการหาตำแหน่งแบบ 3 มิติ
ฉันมีกล้องสอบเทียบและมีพารามิเตอร์ที่แท้จริง ฉันยังมีพารามิเตอร์ภายนอกที่เกี่ยวข้องกับจุด (กำเนิดโลก) บนพื้นผิวภาพถ่ายในโลกแห่งความจริง จุดนี้ฉันได้ตั้งค่าเป็นจุดกำเนิดในพิกัดโลกแห่งความจริง [0,0,0] ด้วยค่าปกติ [0,0,1] จากพารามิเตอร์ภายนอกเหล่านี้ฉันสามารถหาตำแหน่งและการหมุนของกล้องในพิกัดโลกระนาบ 3 มิติได้ที่นี่: http://en.wikipedia.org/wiki/Camera_resectioning ตอนนี้ฉันมีจุดที่สองซึ่งฉันได้ดึงพิกัดภาพสำหรับ [x, y] ฉันจะรับตำแหน่ง 3 มิติของจุดนี้ในระบบพิกัดโลกได้อย่างไร ฉันคิดว่าสัญชาตญาณตรงนี้คือฉันต้องติดตามรังสีที่ไปจากศูนย์กลางออปติคัลของกล้อง (ซึ่งตอนนี้ฉันมีตำแหน่ง 3D ตามที่อธิบายไว้ข้างต้น) ผ่านระนาบภาพ [x, y] ของกล้องแล้ว ผ่านระนาบโลกแห่งความจริงของฉันที่ฉันกำหนดไว้ที่ด้านบน ตอนนี้ฉันสามารถตัดกันพิกัดโลก 3 มิติด้วยระนาบเนื่องจากฉันรู้ว่าปกติและชี้ไปที่ระนาบนั้น สิ่งที่ฉันไม่ได้รับคือวิธีหาตำแหน่ง 3d และทิศทางเมื่อออกจากระนาบภาพเป็นพิกเซล มันเป็นการเปลี่ยนแปลงผ่านระบบพิกัดที่ทำให้ฉันสับสน

3
Chroma-Subsampling: วิธีการคำนวณอัตราข้อมูลอย่างถูกต้อง
ฉันมีความยากลำบากในการทำความเข้าใจวิธีการคำนวณอัตราข้อมูลเมื่อยกระดับการสุ่มตัวอย่างด้วยสีในตัวอย่างของภาพ Y'UV: ฉันมีตัวอย่างต่อไปนี้สำหรับการคำนวณ: ความละเอียดของภาพ: 352*288 ความถี่: 25 fps สำหรับ(4: 4: 4)การคำนวณตัวอย่างจะเป็นดังนี้: (352px * 288px) * 3 color channels * 25 fps * 8 bit = 60 825 600 bit/s จนถึงตอนนี้ดีมาก แต่ตอนนี้มาถึง(4: 2: 0) : (352px*288px) * 1.5 color channels * 25 * 8 = 30 412 800 bit/s ตอนนี้พยายามที่จะถ่ายโอนตัวอย่างนี้ไปยังเช่น(4: 1: …

2
วิธีการวัดปมปอดในภาพ CT Scan DICOM
ในคำถามนี้ฉันต้องการเน้นที่ค่าความเข้มของ CT Scan ก่อนอื่นให้ดูภาพด้านล่าง: ภาพด้านบนเป็นภาพต้นฉบับในขณะที่ภาพด้านล่างเป็นรุ่นที่ จำกัด ในการวัดปริมาณของรูปร่างใด ๆ ในทางทฤษฎีมันเป็นไปได้ที่จะนับจำนวน voxels ในภาพ อย่างไรก็ตามชั้นนอกสุดของวัตถุ (เช่นก้อนกลม) แสดงความเข้มที่เข้มกว่าในขณะที่ voxels ทั้งหมดภายในวัตถุนั้นมีความเข้มสูงมาก ถ้าฉันนับ voxels ในเวอร์ชันที่ จำกัด ฉันมีแนวโน้มสูงที่จะได้รับปริมาณผลลัพธ์ที่ใหญ่กว่าปริมาตรที่แท้จริงสำหรับโหนปอด ฉันยังเห็นว่ามีตัวแปรเช่น window center (ระดับ) และความกว้างของหน้าต่างซึ่งสามารถใช้เพื่อปรับข้อมูลความเข้มของภาพ DICOM ความเข้มต่างกันสามารถเปลี่ยนแปลงปริมาณผลลัพธ์ ดังนั้นนี่คือคำถาม: ถ้าฉันจะวัดปมปอดใด ๆ ที่ฉันควรทำเพื่อให้บรรลุความแม่นยำที่ดีที่สุดที่เป็นไปได้? เมื่อใดที่เราควรมองข้าม voxels ที่มีความเข้มต่ำกว่า หรือฉันต้องทำสิ่งนี้ด้วยวิธีอื่น?

2
การค้นหารัศมี r ของทรงกลมที่ทับซ้อนกันในภาพ 3 มิติ
ปัญหาปัจจุบันของฉัน: ฉันมีอิมเมจไบนารีอินพุท 3D (เมทริกซ์สามมิติที่มีเพียง 0 และ 1) ที่ประกอบด้วยจำนวนสุ่มของทรงกลมที่มีรัศมี r เราไม่ทราบว่ามีทรงกลมจำนวนเท่าใดในภาพ ทรงกลมทั้งหมดมีรัศมี r เท่ากัน แต่เราไม่รู้รัศมี r ทรงกลมอยู่ทั่วในภาพและสามารถซ้อนทับกันได้ ภาพตัวอย่างได้รับด้านล่าง ความต้องการของฉัน: รัศมี r คืออะไร? ขณะนี้ฉันเพิ่งเรียบภาพเพื่อกำจัดแกน z และทำการตรวจจับขอบและฉันพยายามแปลง Hough โดยใช้: http://rsbweb.nih.gov/ij/plugins/hough-circles.html อย่างไรก็ตามด้วยการแปลงแบบ Hough ฉันเห็นว่าต้องระบุรัศมีต่ำสุดของรัศมีสูงสุดและจำนวนวงกลม ฉันได้ลองสองสามครั้งด้านล่าง: ด้วยพารามิเตอร์ที่ถูกต้อง Hough Transform สามารถตรวจจับวงกลมได้ดี แต่ในการประยุกต์ใช้จริงผมไม่ทราบว่าหลายทรงกลมมีและทำให้โปรแกรมพยายามที่จะคาดเดาต่ำสุดและสูงสุดรัศมีดูเหมือนว่าไม่เป็นไปได้ มีวิธีอื่นในการทำสิ่งนี้ให้สำเร็จหรือไม่? Cross-link: /math/118815/finding-radius-r-of-the-overlappable-spheres-in-3d-image
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.