การประมวลผลสัญญาณ

ถามตอบสำหรับผู้ปฏิบัติงานด้านศิลปะและวิทยาศาสตร์ของการประมวลผลสัญญาณภาพและวิดีโอ

4
นี่เป็นวิธีที่ถูกต้องสำหรับการแก้ไขสัญญาณรบกวนแบบคงที่หรือไม่?
ขณะนี้ฉันมีส่วนร่วมในโครงการที่เกี่ยวข้องกับการตั้งโปรแกรมเซ็นเซอร์ภาพ เซ็นเซอร์ของเราให้เสียงเราดังนั้นเราต้องการแก้ไขให้ถูกต้อง มีคนอื่นในโปรเจ็กต์เกิดความคิดที่จะถ่ายภาพ "สีดำ" เช่นใส่ฝาปิดเลนส์และถ่ายภาพที่มีความหมายว่าเป็นสีดำทั้งหมด (เห็นได้ชัดว่ามันไม่ใช่เพราะเสียงรบกวน) ณ จุดนี้ในการจับภาพต่อมาเขาใช้ค่าพิกเซลจากภาพสีดำและลบออกจากภาพที่ถ่ายเป็นประจำ ภาพดูดีขึ้นและเสียงส่วนใหญ่จะถูกลบออก แต่ฉันไม่เชื่อว่านี่เป็นวิธีที่ดีที่สุดในการลบเสียงรบกวนเนื่องจากสาเหตุดังต่อไปนี้: ช่วงของภาพคงที่คือ [-172 194] (ค่า 366) เมื่อเทียบกับช่วงมาตรฐานของ [0 255] เมื่อวาดใหม่มันจะอยู่ในช่วง [0 255] และดูดีขึ้น แต่ฉันเชื่อว่านี่ไม่ถูกต้อง ฉันควรพูดถึงว่าภาพใหม่ถ่ายในที่แสงน้อย วิธีนี้ถูกต้องสำหรับการลบเสียงรบกวนหรือไม่? ทำไมหรือทำไมไม่?

1
จะหาเคอร์เนล convolution ในโดเมนความถี่ได้อย่างไร
ฉันมีเวกเตอร์ข้อมูลปริภูมิสองตัว (แต่ละอันมีความยาวประมาณ 2,000 องค์ประกอบ) หนึ่งคือเวอร์ชันที่น่าเชื่อถือของอีกรุ่นหนึ่ง ฉันพยายามตรวจสอบเคอร์เนลที่จะทำให้เกิดการโน้มน้าวใจ ฉันรู้ว่าฉันสามารถทำได้โดยค้นหาการแปลงฟูริเยร์ผกผันของอัตราส่วนของการแปลงฟูริเยร์ของเวกเตอร์เอาท์พุทและอินพุต แน่นอนเมื่อฉันทำสิ่งนี้ฉันได้รับรูปร่างมากขึ้นหรือน้อยลงที่ฉันคาดหวัง อย่างไรก็ตามเคอร์เนลเวกเตอร์ของฉันมีมิติข้อมูลเดียวกันกับเวกเตอร์อินพุตสองตัวเมื่อในความเป็นจริงการบิดนั้นใช้เพียงหนึ่งในห้า (~ 300-400) ของคะแนน ความจริงที่ว่าฉันได้รูปร่างที่ถูกต้อง แต่จำนวนจุดผิดทำให้ฉันคิดว่าฉันไม่ได้ใช้ฟังก์ชั่น ifft และ fft ค่อนข้างถูกต้อง ดูเหมือนว่าถ้าฉันทำสิ่งที่ถูกต้องสิ่งนี้ควรเกิดขึ้นตามธรรมชาติ ตอนนี้ฉันกำลังทำอยู่ FTInput = fft(in); FtOutput = fft(out); kernel = ifft(FtOutput./FTInput). สิ่งนี้ถูกต้องและขึ้นอยู่กับฉันในการตีความเวกเตอร์เอาท์พุทอย่างถูกต้องหรือฉันมีงานที่เกินขนาด ฉันแน่ใจว่ามันหลังฉันไม่แน่ใจว่าอยู่ที่ไหน

3
“ ตัวกรองสัญญาณความถี่ต่ำ” ในบริบทของซอฟต์แวร์ที่ไม่ใช่ EE
ฉันเป็นวิศวกรซอฟต์แวร์ที่มีประสบการณ์และกำลังทำงานกับเซ็นเซอร์ของสมาร์ทโฟน ฉันใช้คลาส EE พื้นฐานใน DSP และพยายามใช้ความรู้ของฉัน ฉันเชื่อว่าฉันเข้าใจการแปลงฟังก์ชั่นถ่ายโอนการแปลง z เป็นต้นฉันรู้เล็กน้อยเกี่ยวกับตัวกรอง FIR และ IIR ตอนนี้เมื่ออ่าน API ของซอฟต์แวร์และเอกสารฉันเห็นผู้คนกำลังใช้ LPF กับข้อมูลเซ็นเซอร์ในโดเมนเวลา ฉันรู้ว่าคุณทำอย่างนั้นผ่านการใช้สมการความแตกต่าง (เช่น y [i] = y [i-1] + 2 * x [i]) แต่ฉันเรียนรู้ในชั้นเรียน EE ของฉันที่ LPF มักจะนำมาใช้ผ่านการดำเนินการสังวัตนา โดยที่คุณสามารถสังเกตุสัญญาณเวลาด้วยค่าสัมประสิทธิ์ของคลื่น sinc (ตัวอย่าง) และมีความถี่ตัดเฉพาะ ดังนั้นการใช้งานภาษาพูดของ "ตัวกรองความถี่ต่ำ" จึงไม่แน่นอนสำหรับฉัน ตัวอย่างเช่น Google Android API มีเอกสารนี้: http://developer.android.com/reference/android/hardware/SensorEvent.html#values public void onSensorChanged(SensorEvent …

3
การจำแนกพื้นผิวด้วย DCT
มันจะทำงานได้อย่างไรในการจำแนกพื้นผิวของภาพโดยใช้คุณสมบัติจากการแปลงโคไซน์แบบแยก? Googling "การจำแนกพื้นผิว dct" จะพบรายงานทางวิชาการเพียงเรื่องเดียวในหัวข้อนี้โดยใช้เครือข่ายประสาท สำหรับแอปพลิเคชันของฉันฉันมีคลังข้อมูลขนาดใหญ่ของภาพซึ่งในภาพทั้งหมดเป็นพื้นผิวที่สอดคล้องกัน (เช่นภาพโคลสอัพของผ้าห่มเปลือกไม้ต้นไม้ทุ่งหญ้า ฯลฯ ) ได้รับแรงบันดาลใจจากการตอบคำถามก่อนหน้านี้ฉันกำลังพิจารณาแนวทางต่อไปนี้: แยกแต่ละภาพออกเป็นบล็อก NxN ของพิกเซล ใช้ DCT ของแต่ละบล็อก บีบ DCT แต่ละอันให้เป็นอาร์เรย์ 1xM และป้อนเข้ากับอัลกอริทึมการจัดกลุ่ม K-Means และรับฉลากคลัสเตอร์สำหรับ DCT แต่ละตัว คำนวณฮิสโตแกรมของการทำคลัสเตอร์ป้ายสำหรับแต่ละภาพโดยการนับแต่ละป้ายต่อภาพจาก # 3 ฝึกอบรมตัวจําแนก SVM โดยป้อนชุด [(ฮิสโตแกรม, ป้ายรูปภาพ) มันจะทำงานได้ดีแค่ไหน? ฉันใช้ระบบที่คล้ายกันโดยใช้คุณสมบัติที่แยกผ่านอัลกอริทึม SIFT / SURF แต่ฉันสามารถได้รับความแม่นยำประมาณ 60% เท่านั้น ฉันสามารถใช้ DCT ในวิธีอื่นในการจำแนกพื้นผิวได้อย่างไร?

3
ไม่สามารถแยกสัญญาณเสียงโดย FastICA จากการบันทึกในโลกแห่งความจริง
ฉันได้เขียนโปรแกรมเพื่อทำการ FastICA บนไฟล์สเตอริโอ WAV โดยใช้รหัสในตัวอย่าง Python MDP FastICA ด้วยตัวอย่างเสียงฉันได้ผลลัพธ์ที่ดีมาก จากนั้นฉันพยายามบันทึกโลกแห่งความจริงโดยใช้ไมโครโฟนโมโนคอมพิวเตอร์สองเครื่องเชื่อมต่อกับไมโครโฟนสเตอริโอในพีซีของฉันโดยเชื่อมต่อ mic 1 ถึง L channel และ mic 2 ถึง R channel ฉันทดสอบด้วยการเล่นดนตรีที่พื้นหลังขณะที่ฉันกำลังพูดคุยในห้องที่เงียบสงบ อย่างไรก็ตามการรัน FastICA ไม่ได้เป็นการแยกสัญญาณเลย เป็นไปได้หรือไม่ที่คุณภาพของไมโครโฟนต่ำเกินไป? ฉันต้องทำสิ่งใดกับไฟล์ WAV ที่บันทึกไว้ (16 บิต, PCM ที่ลงนาม, 44100Hz) ก่อนที่จะเรียกใช้ FastICA หรือไม่ คุณสามารถดาวน์โหลดบันทึกที่นี่
12 ica  python 

2
การแปลงรูปภาพขาวดำ (1 บิตดำและขาว)
เมื่อแปลงข้อความที่สแกนเป็นภาพขาวดำ 1 บิตตัวกรองบางตัวที่สามารถนำไปใช้ในกระบวนการเพื่อปรับปรุงผลลัพธ์คืออะไร ตอนนี้ฉันกำลังเจอปัญหาที่ข้อผิดพลาดในการทำให้ภาพดูแย่มาก อัปเดต: ฉันคิดว่าการพยายามเลิกทำ dithering นั้นเป็นปัญหาที่ยากกว่ามาก ฉันจะแปลงภาพแรกเป็นภาพขาวดำได้อย่างไร วิธีการเริ่มต้นconvert -monochrome img1 img2แสดงอยู่ด้านล่าง ฉันยังได้ลองวิธีสองขั้นตอน: 1) ลดความลึก (จานสี) และแกมม่า 2) แปลงเป็นรูปภาพแบบ bilevel (ไม่แสดง) สิ่งอื่น ๆ ที่ฉันเล่นด้วยซึ่งรวมถึงคำสั่ง ditherของ imagemagick (ในการตั้งค่าต่าง ๆ ) แต่มันก็ไม่ดีเท่าวิธีสองขั้นตอน

4
วิธี 'ขาว' สัญญาณโดเมนเวลาได้อย่างไร
ฉันพยายามที่จะเข้าใจวิธีการใช้งานสิ่งที่เรียกว่าตัวกรอง 'pre-whitening' หรือเพียงแค่ตัวกรอง 'whitening' ฉันเข้าใจว่าจุดประสงค์คือทำให้เดลต้าเป็นฟังก์ชั่นความสัมพันธ์อัตโนมัติ แต่ฉันไม่แน่ใจว่าจะทำสิ่งนี้ได้อย่างไร บริบทที่นี่มีดังต่อไปนี้: รับสัญญาณที่ตัวรับสัญญาณที่แตกต่างกันสองตัวและคำนวณความสัมพันธ์ข้าม ความสัมพันธ์ข้ามสามารถมีลักษณะเป็นรูปสามเหลี่ยมหรือรูปทรงอื่น ๆ ที่ได้รับพระเจ้า ด้วยเหตุนี้จึงเป็นการยากที่จะค้นหาจุดสูงสุดของสัญญาณข้ามสหสัมพันธ์ ในกรณีนี้ฉันได้ยินเกี่ยวกับการต้อง 'ขาว' สัญญาณก่อนที่ความสัมพันธ์ข้ามจะดำเนินการกับพวกเขาเช่นนั้นข้ามความสัมพันธ์เป็นเหมือนเดลต้า สิ่งนี้ทำได้อย่างไร ขอบคุณ!

1
การตีความค่าลักษณะเฉพาะของ Hessian ผกผันในตัวติดตาม KLT
ฉันเป็นนักเรียนปริญญาโทกำลังเตรียมการสัมมนาในด้านคอมพิวเตอร์วิสัยทัศน์ ในบรรดาหัวข้อคือตัวติดตาม Kanade-Lucas-Tomasi (KLT) ดังที่อธิบายไว้ใน เจชิค Tomasi, "ดีมีการติดตาม" ดำเนินการตามกฎหมาย CVPR '94 นี่คือแหล่งข้อมูลบนเว็บที่ฉันใช้เพื่อทำความเข้าใจกับตัวติดตามของ KLT ฉันต้องการความช่วยเหลือเกี่ยวกับคณิตศาสตร์เนื่องจากฉันเป็นสนิมในพีชคณิตเชิงเส้นเล็กน้อยและไม่มีประสบการณ์มาก่อนด้วยการมองเห็นคอมพิวเตอร์ ในสูตรนี้สำหรับ (ขั้นตอนที่ 5 ในการสรุป) ให้สังเกต Hessian ผกผัน:ΔpΔp\Delta p Δp=H−1Σx[∇I∂W∂p]T[T(x)−I(W(x;p))]Δp=H−1Σx[∇I∂W∂p]T[T(x)−I(W(x;p))]\Delta p = H^{-1}\Sigma_x\left[\nabla I \frac{\partial W}{\partial p}\right]^\mathsf{T} \left[T(x) − I(W(x; p))\right] ในบทความที่ดีมีการติดตามจะถูกกำหนดเป็นคนที่ผลรวมของเมทริกซ์ผกผันรัฐมีขนาดใหญ่ลักษณะเฉพาะที่คล้ายกัน: \ฉันไม่สามารถเข้าใจได้ว่ามันมาจากที่ไหนและทางคณิตศาสตร์min(λ1,λ2)>thresholdmin(λ1,λ2)>threshold\min(\lambda_1,\lambda_2)>threshold สัญชาตญาณคือสิ่งนี้แสดงถึงมุม; รับที สิ่งที่เกี่ยวข้องกับค่าลักษณะเฉพาะ? ฉันคาดหวังว่าถ้าค่าของ Hessian ต่ำจะไม่มีการเปลี่ยนแปลงและไม่ใช่มุม หากพวกเขาสูงก็เป็นมุม มีใครรู้บ้างไหมว่าสัญชาตญาณแห่งความมีลูกเล่นเกิดขึ้นได้อย่างไรในค่าลักษณะเฉพาะของ Hessian ผกผันเพื่อกำหนดΔpΔp\Delta pในการวนซ้ำของเครื่องมือติดตาม KLT ฉันสามารถค้นหาแหล่งข้อมูลที่อ้างว่า Hessian …

3
การใช้ตัวกรองเป็นการคูณหรือการแปลงมีความเสถียรหรือไม่
ฉันกำลังเขียนโปรแกรมเพื่อกรองสัญญาณ 20,000 ตัวอย่างด้วยตัวกรอง Butterworth ลำดับที่ห้าแบบออฟไลน์ ฉันสามารถใช้งาน FFT ได้ ดูเหมือนจะมีสองทางเลือกสำหรับการใช้งานการกรอง: การชักจูงสัญญาณด้วยการตอบสนองแบบอิมพัลส์ในโดเมนเวลาหรือ ทวีคูณสัญญาณด้วยการตอบสนองแบบอิมพัลส์ในโดเมนความถี่และแปลงผลลัพธ์ให้กลับด้าน วิธีการเหล่านี้จะเหมือนกันในกรณี FT ทางทฤษฎี แม้ว่าจะทำในชีวิตจริงด้วย DFT แต่ฉันคิดว่าสิ่งต่าง ๆ หนึ่งในวิธีการเชิงตัวเลขมีเสถียรภาพมากขึ้นหรือไม่? มีปัญหาอื่น ๆ ที่ฉันควรทราบอีกหรือไม่ จำนวนการคำนวณไม่สำคัญ
12 filters 

2
เอาท์พุทเซ็นเซอร์ลบที่มีการเหนี่ยวนำร่วมกันระหว่างพวกเขา
ความเป็นมา: ซอฟต์แวร์ที่ฉันใช้ในการวิเคราะห์สัญญาณของฉันคือ matlab ฉันมีสัญญาณเสียงสองสัญญาณที่ถูกบันทึกโดยใช้เซ็นเซอร์แม่เหล็กสองตัว ให้เรียกเซ็นเซอร์ตัวหนึ่งว่า A และอีกอันหนึ่ง B. A และ B มีการเหนี่ยวนำร่วมกันระหว่างพวกมัน ในขณะที่เซ็นเซอร์ A และ B ทำงานฉันต้องการลบข้อมูลที่ได้รับในเซ็นเซอร์ A เนื่องจากการเหนี่ยวนำร่วมกันจากเซ็นเซอร์ B ฉันพยายามลบสัญญาณ B จากสัญญาณ A เพียงแค่เขียนใน matlab (AB) แต่มันก็ให้คำตอบที่แปลกประหลาด ฉันคิดว่ามันมาจากการเปลี่ยนแปลงที่ฉันมีในระยะ เวลาในการบันทึกเริ่มต้นของแทร็กทั้งสองเท่ากันดังนั้นฉันจึงคิดว่ามันไม่ล่าช้า ฉันอยากจะรู้วิธีการทำกระบวนการลบในทางทฤษฎีและถ้าใครมีเคล็ดลับวิธีการใช้งานได้อย่างง่ายดายใน MATLAB ฉันอยากจะรู้ ฉันจะซาบซึ้งในความช่วยเหลือจริงๆ ขอบคุณล่วงหน้า. ด้านล่างฉันแนบรูปภาพของกราฟสัญญาณ ในรูปแรกคุณสามารถเห็นสัญญาณที่ได้รับจากเซ็นเซอร์ A และเซ็นเซอร์ B ในภาพที่สองฉันพล็อตเซ็นเซอร์ A เป็นสีแดงและเซ็นเซอร์ B เป็นสีน้ำเงินในช่วง 2.12: 2.16 และซูมเข้าไปอีก
12 audio 

1
ตระหนักถึงฟังก์ชั่นคณิตศาสตร์ภายในเพลง
ฉันใหม่กับ DSP และเพิ่งค้นพบ StackExchange นี้ดังนั้นขออภัยหากนี่ไม่ใช่สถานที่ที่เหมาะสมในการโพสต์คำถามนี้ มีทรัพยากรที่อธิบายประเภทในแง่คณิตศาสตร์มากกว่าหรือไม่? ตัวอย่างเช่นถ้าฉันแสดง FFT บนสัญญาณในส่วนนี้ของเพลง (2:09 ถ้าลิงก์ไม่เริ่มต้นที่นั่น) จะมีวิธีใดบ้างที่ฉันสามารถตรวจพบว่าส่วนนี้มีการเรียงลำดับคร่าวๆ ของเสียง เสียงเช่นนี้ติดตามฟังก์ชั่นทางคณิตศาสตร์ที่ฉันสามารถเปรียบเทียบได้หรือไม่? http://www.youtube.com/watch?v=SFu2DfPDGeU&feature=player_detailpage#t=130s (ลิงก์เริ่มเล่นเสียงทันที) เป็นวิธีเดียวที่จะใช้เทคนิคการเรียนรู้แบบมีผู้สอนหรือมีวิธีการอื่นที่แตกต่างกัน ขอบคุณสำหรับคำแนะนำใด ๆ

1
ตัวกรองที่จับคู่ที่เหมาะสมที่สุดโดยไม่มี ISI
เมื่อใช้ตัวกรองเพื่อกำหนดรูปร่างสัญญาณดิจิตอล, และระบุว่าเราไม่ต้องการให้ชุดค่าผสมของตัวกรองก่อให้เกิด ISI ใด ๆ ตัวกรอง "ที่จับคู่" ตัวใด, q ( x )จะเพิ่ม SNR ให้มากที่สุด?p(x)p(x)p(x)q(x)q(x)q(x) ตัวกรองที่จับคู่จะใช้ในการสื่อสารแบบดิจิตอลเพื่อเพิ่มอัตราส่วนสัญญาณต่อสัญญาณรบกวนให้มากที่สุด บ่อยครั้งที่ตัวกรองรูท - โคไซน์ใช้ในการสร้างรูปร่างสัญญาณเนื่องจากมันถูก จำกัด ในพื้นที่ความถี่และตัวกรองเดียวกันสามารถนำไปใช้กับสัญญาณที่ได้รับเพื่อปรับปรุงอัตราส่วนสัญญาณต่อเสียง (SNR) โดยไม่ทำให้เกิดสัญลักษณ์ระหว่าง - การรบกวน (ISI) อย่างไรก็ตามหากใช้ตัวกรองที่เหมาะสมน้อยที่สุดในการกำหนดรูปร่างของสัญญาณจากนั้นการใช้ตัวกรองเดียวกันที่ตัวรับสัญญาณสามารถแนะนำ ISI ไม่ชัดเจนในทันทีว่าตัวเลือกที่ดีที่สุดของตัวกรองในตอนท้ายของการรับคืออะไร ความเข้าใจของฉันคือ SNR ถูกขยายให้ใหญ่สุดโดยการเพิ่มดังนั้นฉันจึงต้องการเพิ่มสิ่งนี้ในขณะที่ตอบสนองข้อ จำกัด ที่ตัวกรองทำให้ไม่มี ISI ( p ( x ) ∗ q ( x ) = 0สำหรับx = k T , …

5
ฉันจะปรับความยาวหน้าต่างให้เหมาะสมใน STFT ได้อย่างไร
ฉันมีสัญญาณ EEG จำนวนมากและฉันต้องการวิเคราะห์โดยใช้วิธีการเชิงเส้นเช่น STFT (การแปลงฟูริเยร์เวลาสั้น) ใน STFT ฉันจะปรับความยาวหน้าต่างการวิเคราะห์ให้เหมาะสมเพื่อสะท้อนสเปกตรัมความถี่ของแต่ละหน้าต่างการวิเคราะห์ในวิธีที่เหมาะสมได้อย่างไร

3
ฉันจะเปรียบเทียบไฟล์เสียง 2 ไฟล์ได้อย่างไรโดยคืนเปอร์เซ็นต์ความแตกต่าง
มีวิธีเปรียบเทียบไฟล์เสียง 2 ไฟล์โดยจะมีการคืนเปอร์เซ็นต์ที่แตกต่างกันหรือไม่? ฉันใช้C # VS08,. NET Framework 3.5 แก้ไข: ความแตกต่างของเสียง (เช่นเช่นเสียง 1 "HELP":, เสียง 2 "HELP ME PLEASE":, จะคืนความแตกต่างเป็นเปอร์เซ็นต์ระหว่างเสียง 2 นี้) ขณะนี้ฉันกำลังบันทึกไฟล์ที่บันทึกในรูปแบบ wav และอัตราบิตและคุณภาพของไฟล์จะเหมือนกับสิ่งที่จะถูกบันทึกและเปรียบเทียบกับ ฉันต้องการถามว่ามีวิธีเปรียบเทียบเสียง (ไม่ใช่เฉพาะไบนารี) ในไฟล์เสียง 2 ไฟล์ที่มีคุณสมบัติเหมือนกันและรูปแบบเดียวกัน (WAV) และแสดงความแตกต่างเปอร์เซ็นต์ระหว่าง 2 เสียงในไฟล์เสียง 2 ไฟล์ ความช่วยเหลือจะได้รับการชื่นชมอย่างมาก
12 audio  c# 

3
เหตุใดฉันจึงมีการรั่วไหลของความถี่ใน DFT หลังจากไม่มีการเติมเต็มศูนย์หากความละเอียดความถี่ดี
ลองพิจารณาตัวอย่างนี้: Fs=1000; Ns=500; t=0:1/Fs:(Ns-1)*1/Fs; f1=10; f2=400; x=5+5*sin(2*pi*f1*t)+2*sin(2*pi*f2*t); X=fft(x); ในสถานการณ์สมมตินี้ความละเอียดความถี่คือ 2 และส่วนประกอบความถี่ทั้งหมดจะถูกบันทึกอย่างถูกต้อง อย่างไรก็ตามถ้าฉันทำสิ่งนี้: X=fft(x,1000); ความละเอียดความถี่คือ 1 แต่มีการรั่วไหลของสเปกตรัม ผลที่คล้ายกันมีให้เห็นที่นี่ สำหรับฉันแล้วการแปลงฟูริเยร์ของหน้าต่างทั้งสอง (หนึ่งที่มีความยาว 500 และอีกอันที่มีความยาว 1,000) มีศูนย์ที่ความถี่ที่แสดงในสัญญาณดังนั้นฉันไม่เห็นว่าทำไมการรั่วไหลจึงเกิดขึ้น

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.